Digitales Publizieren in den Geisteswissenschaften: Begriffe, Standards, Empfehlungen

Views
1467
Downloads
85
Open Public Peer Review
Kategorie
Working Paper
Version
2.0
Weitere Versionen dieses Working Papers:
Version 1.0 vom: 18.03.2021

mit Version 1.0 vergleichen
AG Digitales Publizieren Autoreninformationen

DOI: 10.17175/wp_2021_001_v2

Nachweis im OPAC der Herzog August Bibliothek: 183976614X

Erstveröffentlichung: 18.03.2021

Version 2.0: 09.03.2023

Lizenz: Sofern nicht anders angegeben Creative Commons Lizenzvertrag

Medienlizenzen: Medienrechte liegen bei den Autor*innen

Letzte Überprüfung aller Verweise: 03.11.2022

GND-Verschlagwortung: Elektronisches Publizieren | Digital Humanities | Online-Publizieren | Wissenschaftskommunikation |

Empfohlene Zitierweise: Digitales Publizieren in den Geisteswissenschaften: Begriffe, Standards, Empfehlungen. Hg. von der AG Digitales Publizieren. (= Zeitschrift für digitale Geisteswissenschaften / Working Papers, 1). Erstveröffentlichung vom 18.03.2021. Version 2.0 vom 09.03.2023. Wolfenbüttel 2021. HTML / XML / PDF. DOI: 10.17175/wp_2021_001_v2


Abstract

Digitales Publizieren hat sich in den Geisteswissenschaften zu einem etablierten und breit genutzten Bestandteil der Wissenschaftskommunikation entwickelt. Neben eher konventionellen, an die Printkultur angelehnte Verfahren entwickelt sich zunehmend eine eigene, an festen Konventionen orientierte digitale Publikationskultur. Doch längst sind nicht alle Fragen zum digitalen Publizieren geklärt und es existieren noch viele experimentelle Ansätze. Das vorliegende Working Paper der AG Digitales Publizieren des Verbandes Digital Humanities im deutschsprachigen Raum (DHd) möchte daher nach einer ersten Bestandaufnahme 2016 das Feld des digitalen Publizierens erneut vermessen und auf aktuelle Entwicklungen, Diskurse und Best-Practice-Beispiele eingehen.


Digital publishing in the humanities has become an established and widely used component of scholarly communication. A digital publishing culture has become an integral part of scientific work. However, not all questions about digital publishing have been answered and many experimental approaches still exist. This working paper by the Digital Publishing Working Group of the Digital Humanities Association in the German-speaking countries (DHd) aims to re-examine digital publishing and look at current developments, discourses and best practice examples.


Version 2.0 (09.03.2023)

Es wurden folgende Änderungen vorgenommen: Inhaltliche Anpassungen, wie sie von den Gutachter*innen und Kommentator*innen angemerkt worden sind. Aktualisierung und Ergänzung der Fußnoten und der bibliografischen Angaben. Formale Korrekturen.






Vorwort

[1]Seit ihrer Gründung im Jahr 2015 widmet sich die AG Digitales Publizieren des Verbandes Digital Humanities im deutschsprachigen Raum (DHd) Fragen und Diskussionen rund um das Thema des digitalen Publizierens und der digitalen Publikation. Der Fokus liegt dabei auf dem Publikationswesen in den (digitalen) Geisteswissenschaften und hier insbesondere auf den textorientierten Disziplinen.

[2]Ein zentraler Aspekt war stets die Frage, wie eine digitale wissenschaftliche Publikation unter den gewandelten Medienbedingungen aussehen sollte und welche Anforderungen sich daraus an Urheber*innen, Intermediäre und Rezipient*innen ergeben. Aus diesem Anliegen heraus entstand 2016 ein erstes Working Paper »Digitales Publizieren«[1]zum Stand des digitalen Publizierens, welches von Mitgliedern der AG kollaborativ verfasst und auf der DHd Jahrestagung in Leipzig[2] präsentiert wurde. Diese erste Version war aus dem Wunsch heraus entstanden, der Community grundlegende Informationen über den gegenwärtigen Stand des digitalen Publizierens zu geben sowie gezielte Empfehlungen an Forschende, Institutionen, Fördergeber und Politik auszusprechen, um das digitale Publizieren im wissenschaftlichen Kontext zu fördern.

[3]Aus neuen Entwicklungen und veränderten Rahmenbedingungen ergab sich ein Bedarf, das Working Paper zu überarbeiten. Nicht zuletzt machte die mittlerweile festzustellende Etablierung des digitalen Publizierens im Wissenschaftsbetrieb es auch notwendig, andere Schwerpunkte zu setzen. In der überarbeiteten Version, die als erster Band der neu gegründeten Reihe Working Papers der Zeitschrift für digitale Geisteswissenschaften erscheint, wird daher stärker auf aktuelle Entwicklungen und Diskurse denn auf grundlegende Informationen und Empfehlungen fokussiert. Daher wird bewusst nur am Rand auf die Formate und Strukturen des traditionellen Publizierens Bezug genommen. Neu hinzugekommen ist das Kapitel zu Publikationsinfrastrukturen. Alle anderen Kapitel wurden grundlegend überarbeitet.[3] 

[4]Die Literatur zu dem Working Paper kann über eine Zotero Library eingesehen werden.[4] Informationen und Neuigkeiten zur AG werden über die Mailingliste der AG kommuniziert, auf die sich jede*r Interessierte gerne eintragen kann. Das vorliegende Paper wurde in einem offenen Begutachtungsverfahren durch die Community begleitet. Die Begutachtung erfolgt über die Zeitschrift für digitale Geisteswissenschaft (ZfdG) unter Verwendung des Open-Source-Tools Hypothesis. Wir möchten an dieser Stelle den zahlreichen Gutachtenden für die wertvollen und stets konstruktiven Hinweise danken. Viele der Anmerkungen wurden in der finalen Überarbeitung des Papers berücksichtigt und haben so zur Qualitätsverbesserung beitragen. Es gehört zur Transparenz und Nachvollziehbarkeit des gewählten Begutachtungsprozesses, dass auch die begutachtete Version des Papers und die damit verbundenen Kommentare der Gutachtenden als eigenständige Publikation erhalten bleiben.[5]

1. Was sind digitale wissenschaftliche Publikationen und welche Möglichkeiten bieten sie?

[5]Digitale wissenschaftliche Publikationen zeichnen sich durch die Möglichkeiten des Mediums, wie Maschinenlesbarkeit, Multimedialität, Veränderbarkeit, leichte Kopierbarkeit, Vernetzbarkeit, etc. aus und erweitern methodisch die Verfahren wissenschaftlicher Ergebnissicherung. Die neuen digitalen Möglichkeiten haben den Begriff der Publikation erweitert, der die ehemals etablierten Publikationswege über das klassische Verlagsmodell nur als eine von mehreren Optionen der Veröffentlichung versteht. Der folgende Abriss geht daher von einem weiten Publikationsbegriff aus. Dazu zählen ohne Anspruch auf Vollständigkeit:

  • Digitale Texte in traditionellen Formen (Monografien, Sammelbände, Aufsätze, Rezensionen, Editionen, Kommentare)
  • Visualisierungen, Bilder, multimediale Inhalte
  • Forschungsdaten
  • Tools, Software und Algorithmen
  • Wissenschaftskommunikation in sozialen Medien (Blogposts, Tweets u. ä.)

[6]Der wissenschaftliche Qualitätsanspruch der digitalen Publikation ist derselbe wie bei gedruckten Publikationen. Nachprüfbarkeit, logischer Aufbau, klar formulierte Fragestellungen, kritische Auseinandersetzung mit den bisherigen Forschungsergebnissen, Reflexion von Methoden, sprachliche und strukturelle Exaktheit und schließlich die Erwähnung von den eigenen Schlüssen zuwiderlaufenden Fakten sind selbstverständlich auch Basis digitalen wissenschaftlichen Publizierens.

[7]Bei der Publikation digitaler Ressourcen spielt die Möglichkeit zur maschinellen Verarbeitung beziehungsweise Prozessierbarkeit die entscheidende Rolle und kann als konstitutiv auch für den Begriff einer idealtypischen digitalen Publikation angesehen werden. Dabei müssen allerdings das Ziel, auf das hin die digitale Aufbereitung erfolgen soll, sowie die Form der Prozessierung mitbedacht werden. Digitale Ressourcen, wenn sie unter dem Gesichtspunkt ihrer Maschinenlesbarkeit betrachtet werden, lassen sich auch als Forschungsdaten bezeichnen und sind insofern auch nach Maßgabe der bekannten FAIR-Prinzipien[6] zu beurteilen. Zu Forschungsdaten zählen dementsprechend alle strukturierten oder semistrukturierten Datenobjekte, wie z. B. Datenbanken, RDF-Triples oder mit Markup ausgezeichnete Volltexte, aber auch Images und andere multimediale Objekte, sofern sie Gegenstand eines Algorithmus werden können. Zu den Forschungsdaten gehören auch Daten, die die Hypertextualität des Objektes ermöglichen.

[8]In diesem Sinne digital re-kodierte oder direkt erzeugte Ressourcen bieten einen Mehrwert, weil sie vermittels geeigneter Algorithmen Gegenstand von Forschungsfragen werden können, die sich digitaler Methoden bedienen. So kann z. B. die zum Zweck der digitalen Verarbeitbarkeit modellierte Textstruktur mit einem variablen Layout ausgestattet, dynamisch modifiziert, in verschiedene Forschungskontexte eingebettet, im Hypertext referenziert oder mit einem Interface versehen werden, das für die jeweiligen Anforderungen passende spezifische Abfragen und Ansichten ermöglicht. Mit Textmining-Techniken sind z. B. Aussagen über den*die Urheber*in (Stilometrie) oder automatische Identifikation von Themen (Topic Modeling) möglich. Digitale Publikationen können auch selbst Gegenstand von Forschungsfragen sein, funktional also zu Forschungsdaten werden. Ein solches Publikationsdesign bzw. -modell erfordert konzeptionelle Arbeit, es ist integraler Bestandteil und Ergebnis geisteswissenschaftlicher Forschung und keine technisch-abstrakte Routine. 

[9]Bislang gibt es in den Geisteswissenschaften keine etablierten Verfahren, die wie in der Printkultur, wo die Form des Titels, des Inhaltsverzeichnisses, der Textgliederung, der Register, des Zitationssystems usw. weitgehend festgelegt ist, verbindlich vorschreiben, wie eine Publikation von in diesem Sinne verstandenen digitalen Dokumenten beziehungsweise Forschungsdaten aussieht. Immerhin zeichnet sich ab, dass in technischer Hinsicht mittlerweile gut eingeführte offene Standards für Daten und Metadaten insbesondere auf Grundlage der XML-Familie verwendet werden, um das digitale Potenzial auszunutzen. Konkret kommen dabei die Schemata der TEI, MEI, JATS sowie BIBS für die Strukturierung von Volltexten zur Anwendung. Typische deskriptive Metadatenformate sind u. a. DC, MODS, EAD und LIDO. Für die Beschreibung von Strukturen und Dateien ist METS populär, im Bereich der Bestandserhaltung PREMIS. Für Schnittstellen kann je nach Anwendungskontext auf REST, SPARQL o. ä. für Abfragemöglichkeiten zurückgegriffen werden. Nicht-strukturierte Dateiformate für Texte wie z. B. PDF sind demgegenüber möglichst als Masterfile zu vermeiden und allenfalls als Derivate für Lesefassungen oder Simulacra für den Druck nützlich.

[10]Auch wenn Kommunikationsmedien wie Blogs und soziale Netzwerke eine zunehmend wichtigere Rolle spielen, ist der nach wie vor häufigste Fall digitalen Publizierens im geisteswissenschaftlichen Feld die Publikationen eines längeren Textes (Monografie, Artikel). Da die Transformation der jeweiligen Ressource in eine maschinenlesbare und damit prozessierbare Form, d. h. die Umwandlung einer Ressource zu Forschungsdaten, Voraussetzung für deren Nutzung im Kontext der Digital Humanities (DH) ist, müssen auch Monografien oder Artikel nach Maßgabe der jeweiligen Forschungsfrage so aufbereitet werden, dass sie diesen neuen Nutzungszusammenhängen genügen. Texte werden nicht mehr nur gelesen, sondern auch »gerechnet«, wie Gerhard Lauer einmal pointiert formulierte.[7] Hier muss es also darum gehen, die Struktur und Bedeutung des Textes so zu modellieren, dass er Gegenstand algorithmischer Auswertungs- und Visualisierungsprozesse werden kann. Typischerweise erfolgt dies mit deskriptivem Markup (im Unterschied zu prozeduralem Markup)[8] in XML, auch wenn letzteres mit Blick auf überlappendes Markup in die Kritik geraten ist. Allerdings liegt dem eine problematische Gleichsetzung des in vielen Fällen tatsächlich inadäquaten OHCO-Modells und XML zugrunde. XML ist als Syntax durchaus offen, auch nicht-hierarchische und vom OHCO-Modell abweichende Textmodelle darzustellen, wie u. a. auch die Guidelines der TEI[9] verdeutlichen. Oft wird bei der Kritik an XML übersehen, dass die XML-Datei nur eine Komponente der digitalen Publikation bildet, die erst durch eine Schemabeschreibung (XSD, RelaxNG, schematron) und entsprechende Skripte vollständig in ihrer Funktionalität beziehungsweise in ihrem Potenzial bestimmt wird. So können Elemente per Schema als alternativ oder optional charakterisiert werden, Skripte steuern die Anzeige oder den Output, der auf der Oberfläche auch in ganz anderer Sequenzialität auftreten kann, als er im XML-Dokument steht.[10] Die XML-Datei ist insofern zwar menschenlesbar, allein ist sie jedoch erst einmal nur ein Code, der vermittels eines Programmes beziehungsweise Skriptes zur Ansicht gebracht werden muss. Typisch sind hier XSLT und XQuery, abgeleitet aber auch CSS oder Javascript, die für das Layout sorgen und die Semantik der Elemente über ästhetische Funktionen anreichern beziehungsweise mit einer eigenen Bedeutungsdimension ergänzen. Für den XML-Code ist wichtig, dass er nicht nur auf der Grundlage von Wörtern und Sätzen analysiert werden kann, sondern dass seine Bedeutung durch die Einbringung von inhaltlichem (deskriptivem beziehungsweise semantischem) Markup explizit und damit prozessierbar gemacht wird.

[11]Wenn der kodierte Text sich je nach Kontext oder nach Wunsch der Nutzenden in unterschiedlichen Viewport- oder Layoutformen präsentieren lässt, verwandelt sich die sichtbare Oberfläche und ist nur noch ein dynamisches und volatiles Produkt unsichtbarer, aber werkkonstitutiver Grundstrukturen, auf die Algorithmen angewendet werden. Der Text ist damit prinzipiell anders zu bewerten als die starre und unveränderbare Oberfläche zweidimensionaler gedruckter Publikationen, die bedeutungstragendes Markup im Layout kodieren (etwa: kleine Zahl unten ist eine Fußnote, kleine Zahl über dem Textblock ist eine Seitenzahl etc.).

[12]Einen Text unter solchen Bedingungen zu ›schreiben‹ heißt daher, seine Nutzung in einem digitalen Kontext zu antizipieren und analytische Auswertungs- sowie Darstellungsmöglichkeiten mit zu bedenken. Von besonderer Wichtigkeit ist die Kodierung der Bedeutung des Textes durch sachgerechtes und standardkonformes Markup. Bedeutung heißt hier nicht, dass der Text hermeneutisch vollständig durch Markup zu beschreiben wäre, sondern dass vor allem generische Textstrukturen (Einleitung, Haupttext, Fußnoten, Inhaltsverzeichnis, Register, Bibliografie u. ä.) und typische Entitäten (Personen, Orte, Körperschaften, Zeitbegriffe, Zitate, etc.) kodiert werden. Disziplinen- und gattungsspezifische Anpassungen sind durchaus sinnvoll (z. B. nach dem in den Naturwissenschaften typischen IMRAD-Modell)[11] und müssen sich – ebenso wie früher im gedruckten Werk – als Standard etablieren. Mit deskriptivem Markup versehene Texte müssen, um in vollem Sinne für DH-Anwendungen nachnutzbar zu sein, nicht nur mit einem Schema Auskunft über ihren Dokumenteninhalt und die Kodierungspraxis geben, sie müssen auch maschinenlesbare bibliografische, strukturelle, administrative und technische Metadaten enthalten. Dabei sollte es Ziel sein, diese Metadaten nicht mehr getrennt vom Dokument vorzuhalten, wie dies in Bibliothekskatalogen der Fall war, deren Datenbankeintrag – oder früher eine Karte des Zettelkatalogs – einen Proxy des Originals bildete. Vielmehr sind Metadaten möglichst in das Dokument zu integrieren oder vom Dokument aus auf sie zu verweisen, um daraus jederzeit einen vollständigen Suchindex erzeugen zu können.

[13]Grundsätzlich ist es am besten, wenn die Wissenschaftlerin oder der Wissenschaftler den von ihm oder ihr geschriebenen oder sonst erzeugten Text selbst auszeichnet, weil er oder sie den Text sowie die zugrundeliegende Fragestellung am besten kennt. Dafür stehen den Wissenschaftler*innen heute technisch ausgereifte Werkzeuge zur Verfügung, die gleichwohl abhängig von der technischen Affinität der Geisteswissenschaftler*innen als unterschiedlich anspruchsvoll wahrgenommen und benutzt oder eben auch ignoriert werden. Die Auszeichnung durch externe Dienstleister wie beispielsweise das jeweilige Publikationsorgan ist immer nur die zweitbeste Lösung. In jedem Fall ist es unverzichtbar, dass die in den Text hineinkodierten Strukturen allen an der Textherstellung beteiligten Personen bekannt sind, weil sie einen wesentlichen Teil des digitalen Textes bilden und ihn ebenso charakterisieren wie die in ihm enthaltenen Worte und Formulierungen. Die Auszeichnung beschränkt sich nicht nur auf Text (als schriftlichen Ausdruck), sondern erstreckt sich auch auf nicht-textliche Daten wie Abbildungen, Videos oder Programmcode.

[14]Ein markantes Kennzeichen digitaler Texte ist ihre Veränderbarkeit und prinzipielle Offenheit. Sie können nach der (Erst-)Publikation fortgeschrieben werden. Vor diesem Hintergrund zeichnet sich ein Trend von der Ergebnis- zur Prozesspublikation ab. Ob dies in allen Fällen klug und geraten ist, kann hier nicht entschieden werden, wenn aber von dieser Möglichkeit Gebrauch gemacht wird, sollte eine digitale Publikation Auskunft über ihren Status geben, indem für sie entweder technisch Versionierungsverfahren angeboten werden oder sie mit einer Erklärung über ihren jeweiligen Zustand sowie mit einer Erläuterung zur Nachvollziehbarkeit der Entwicklungsschritte ausgestattet wird. Gerade in diesem Moment unterscheidet sich eine digitale Publikation deutlich von ihrem gedruckten Pendant, das solche Prozesse nur in verschiedenen Auflagen zu realisieren vermag.

[15]Darüber hinaus sind digitale Texte vor allem auch Knoten in Netzwerken. Ein Buch öffnet das andere, wie ein altes Sprichwort sagt. Die Vernetzungsfähigkeit, also die medienintegrale Verknüpfung von Dokumenten und Gegenständen, ist eines der wichtigsten Eigenschaften des digitalen Textes (Hypertextualität). Genutzt wird heute vor allem die Möglichkeit, Quellen beziehungsweise die Aussagen belegende Dokumente und Literatur einzubinden, so dass implizit ein Netz entsteht, das seinerseits Gegenstand der Analyse werden kann (Netzwerkforschung, Bibliometrie, Relevanzanalyse, Citation Index etc.). Über den klassischen Link hinaus gewinnt zunehmend auch das Semantic Web an Bedeutung (siehe oben zur Dokumentstruktur von Publikationen). Hier werden Verknüpfungsinformationen in Gestalt von Linked Open Data (LOD) angeboten. Darin mitgedacht ist, dass digitale Texte soziale Produkte sind, die als Anknüpfungs- und Zielpunkt nicht nur der engeren wissenschaftlichen Interaktion und des Diskurses, sondern auch der breiteren Öffentlichkeit sind. Deren Diskurs schlägt sich wiederum in Texten nieder (Annotationen, Blogs, Büchern, etc.) und bringt neue Formen der Transparenz und Rückwirkung auf die wissenschaftliche Praxis und des wissenschaftlichen Erkenntnisprozesses mit sich. Es geht also nicht nur um einen engeren, vernetzten Dokumentenraum, sondern ein offenes Netz, in dem sich kommunikative mit literarisch-wissenschaftlichen Publikationsformen mischen.

[16]Zur Nutzung im Netz gehört auch die weltweit eindeutige und verlässliche Referenzierbarkeit und Langzeitverfügbarkeit von Dokumenten. Während Zitierformen für elektronische Texte unterhalb der Dokumentebene noch ungenügend standardisiert sind (der Wegfall der physikalischen Seitenreferenz erzwingt neue Zitierformen), haben sich für die Dokumentebene eine Reihe von Services etabliert, die ein persistentes Zitieren erlauben (DOI, URN, Handle und PURL sind die häufigsten). Die Frage der dauerhaften Verfügbarkeit und Archivierung der Dokumente ist auf der Bitstream-Ebene weitgehend gelöst, die komplexe Ebene der Information Representation (nach der OAIS-Formulierung [ISO 14721:2012])[12] harrt jedoch weiterhin geeigneter Sicherungsverfahren und sollte Gegenstand intensivierter Forschung der dokumentenverwahrenden und -sichernden Einrichtungen (Bibliotheken, Archive, Museen) werden. Die Nutzung von bewährten und gut verstandenen XML-Technologien kann dazu beitragen, indem Dokumente mit deskriptivem Markup in XML kodiert werden. Zudem sollten Schemadateien zur Beschreibung des Funktionsumfanges des Dokumentes genutzt und XSLT- beziehungsweise XQuery-Skripte in Verbindung mit standardisierten Skriptsprachen wie CSS und JavaScript verwendet werden, um alle Bedeutungsdimensionen transparent abzubilden. Dies gelingt derzeit vor allem mit Textdokumenten gut. Audiovisuelle- oder Objekt-Komponenten bedürfen einer gesonderten Betrachtung, jedoch gibt es auch hier schon eine Reihe von gut etablierten Standards und Metadatenformaten, die im Falle einer Langzeitarchivierung zu berücksichtigen wären. 

2. Was kennzeichnet die digitale wissenschaftliche Autorschaft?

2.1 Kollaborative Autorschaft in den digitalen Geisteswissenschaften

[17]Der Übergang vom Wissen kompilierenden ›Gelehrten‹ zum forschungsbasierten ›Wissenschaftler‹ um 1800 hatte auch zur Folge, dass wissenschaftliche Erkenntnisprozesse fortan in abgeschlossene Monografien und Aufsätze mündeten, die über die Zuschreibung einer individuellen Autorschaft verifiziert wurden. Dieses Vorgehen ist in digitalen wissenschaftlichen Veröffentlichungen weiterhin möglich, wenn man beispielsweise die Monografie eines*einer Autor*in als PDF, als E-Book oder als Hybridpublikation (gedruckt und digital) veröffentlicht.

[18]Die Potenziale des digitalen Medienwandels werden für eine bessere geisteswissenschaftliche Praxis jedoch erst wirklich genutzt, wenn Erkenntnisprozesse stärker kollaborativ betrieben und als dynamisch verstanden und entsprechend transparent abgebildet werden. Es ist gerade ein Vorzug digital gestützter Erkenntnisprozesse, dass sich Wissenschaftler*innen auf verfügbare Texte und Ressourcen beziehen und diese in einem andauernden Prozess kommentieren, modifizieren und verbessern können. Hierzu bieten sich ›flüssige‹ Formate wie beispielsweise Wikis, Living Books, Open-Review-Plattformen oder Weblogs an.

2.1.1 Komplexe Autorschafts- und Beiträger*innenrollen und ihr Impact

[19]Auf einer theoretischen Ebene folgt daraus eine Relativierung der tradierten starken Autorschaftsmodelle, die bis heute in akademischen Qualifikationsprozessen und Berufungsverfahren eine bedeutende Rolle spielen. In digitalen akademischen Schreibprozessen können in noch größerem Maße verschiedene Autorschafts- und Beiträger*innenrollen zu verschiedenen Zeitpunkten der Produktion, Distribution oder produktiven Nutzung einer Ressource ausgewiesen werden. Dies setzt aber voraus, dass sie zunächst definiert werden. Eine solche Ausdifferenzierung der Rollen und Verantwortlichkeiten macht nur offensichtlicher, dass auch gedruckte wissenschaftliche Veröffentlichungen in verschiedenem Maße kollaborativ entstanden sind.

[20]Jenseits dieser kritischen historischen Begriffs- und Analysearbeit bleiben jedoch auch pragmatische Autorschaftszuschreibungen unabdingbar, die differenziert und flexibilisiert werden müssen. Der bisherige reduktionistische Lösungsansatz, in kollaborativen Schreibverfahren durch die Reihenfolge von Namen eine eindeutige Hierarchie der Autor*innen zu suggerieren, bleibt der Grundidee von klar bestimm- und hierarchisierbaren Einzelautorschaften verhaftet. Die bloße alphabetische Listung von Namen ist zwar egalitär, lässt die konkrete Beiträgerschaft jedoch ebenfalls im Dunkeln. Demgegenüber wäre es sinnvoller, die komplexen Autorschaftsrollen in den digitalen Geisteswissenschaften unter Zuweisung konkreter Beitragsformen zu differenzieren sowie eine entsprechende Zuschreibungskultur institutionell zu etablieren.

[21]Zu den möglichen nennenswerten Rollen digitaler wissenschaftlicher Autorschaft oder Beiträger*innenrollen gehören:

  • Hauptherausgeber*in, Neben- / Mitherausgeber*in, Kurator*in, Moderator*in
  • Programmierer*in, Datendesigner*in, Kodierer*in, Datenanalyst*in, Datenaggregator*in, Datenmanager*in
  • Hauptautor*in, Nebenautor*in, Co-Autor*in,[13] Interviewer*in, Panelist*in, Mitdiskutant*in, Archivar*in, Annotator*in, Tagger*in
  • Lektor*in, Kommentator*in, Redakteur*in, Textgestalter*in
  • Rechercheur*in, wissenschaftliche Hilfskraft
  • Lizensor*in, Rechtsberater*in
  • Subskribent*in, Crowdfunder*in, Sponsor*in, Crowdsourcer*in

[22]Diese Rollen, die darüber hinaus nach verschiedenen Graden abgestuft werden können, sollten im Kontext des jeweiligen wissenschaftlichen Beitrags differenziert und zugeschrieben werden. Dynamische Projekte sollten zudem in klar referenzierbare Versionen aufgeteilt werden. Dies ermöglicht die persistente Markierung, auf welche aktuelle oder frühere Version eines Textes oder einer Datenbank sich die jeweilige Mitarbeit in einer entsprechenden Rolle bezieht. Auf diese Weise kann zudem der Impact einer spezifischen wissenschaftlichen Tätigkeit noch genauer bestimmt werden, wobei es empfehlenswert ist, die aktuell zentrale Zitationsform ›Autor*in Jahr‹ (z. B. Schmidt 2010) bei dynamischen und sozialen Veröffentlichungen auf ›Kurztitel / Version‹ (z. B. DHd-Publ / 01) umzustellen. Eine solchermaßen geänderte Zitationsweise wäre nicht nur wissenschaftlich präziser, sie würde zugleich die Relativierung der Autor*inneninstanz für die Verifikation des jeweiligen Erkenntnisprozesses durch eine stärkere Konzentration auf die Dynamik und Kollaborativität der Schreibverfahren selbst abbilden.

2.1.2 Schwärme in und außerhalb der Wissenschaft und die anonyme beziehungsweise pseudonyme wissenschaftliche Autorschaft

[23]In der digitalen Wissensproduktion werden Begriffe wie Schwarm oder Crowd für eine große Masse genutzt, bei der die namentliche Differenzierung und Individualisierung kaum noch möglich oder sinnvoll ist. Dies gilt beispielsweise bei der Erstellung von großen Datenbanken, der Arbeit an freier Software oder auf Dokumentationsplattformen. Auch die neuen Partizipationsmöglichkeiten für Bürger*innen, die zwar nicht in wissenschaftlichen Institutionen arbeiten, sich aber konstruktiv am wissenschaftlichen Diskurs beteiligen (Citizen Science), können fruchtbar gemacht werden. Dies hilft der Wissenschaft doppelt: vor allem hilft diese Entwicklung bei der Dissemination wissenschaftlicher Erkenntnisse in die Gesellschaft, zugleich vergrößert sich die Zahl potenzieller Beiträger*innen zum wissenschaftlichen Erkenntnisprozess.

[24]Unter anderem kann es aus institutionellen Gründen mitunter sinnvoll und im Sinne einer besseren wissenschaftlichen Praxis sein, wenn Beiträger*innen im Wissenschaftsbereich anonyme oder pseudonyme Autorschaften nutzen, die sich beispielsweise auf ›digitale Identitäten‹ beziehen. Solche Autorschaftsnamen oder die Kollektivautorschaft als Schwarm ist in den digitalen Geisteswissenschaften jedoch nur produktiv, wenn sie innerhalb einer Community genutzt werden, die ihren Erkenntnisprozess durch klare Methoden, Kategorien und Regeln definiert hat, und in Projektkontexten, die offen zugänglich und inhaltlich nachprüfbar sind.[14]

2.2 Best-Practice-Beispiele

2.2.1 Living Books, Open-Review-Bücher / -Zeitschriften und Social Reading / Commenting

  • Kathleen Fitzpatrick: Planned Obsolescence. Publishing, Technology, and the Future of the Academy. In: mcpress.media-commons.org. Media Commons Press. Open Scholarship in Open Formats. Hg. von NYU Press. New York, NY 2009. [online] 663714656 
  • Matthew K. Gold: The Digital Humanities Moment. In: Debates in the Digital Humanities. Minneapolis, MN 2012. (= Debates in the Digital Humanities, 1) [online] [Nachweis im GVK]  
  • Handbuch Digital Humanities: Anwendungen, Forschungsdaten und Projekte. Hg. von DARIAH-DE. Berlin u. a. 2015. Version 1.0 vom 12.08.2015. Nachweis im GVK]  
  • Den Kalten Krieg vermessen. Über Reichweite und Alternativen einer binären Ordnungsvorstellung. Hg. von Frank Reichherzer / Emmanuel Droti / Jan Hansen. Berlin u. a. 2018. [online]
  • Nick Montfort / Patsy Baudoin / John Bell / Ian Bogost / Jeremy Douglass / Mark C. Marino / Michael Mateas / Casey Reas / Mark Sample / Noah Vawter: 10 PRINT CHR$(205.5+RND(1)); : GOTO 10. Cambridge u. a. 2013. [online]
  • Bücher / Weblogs / Zeitschriften, die die eingebaute Peer-Reviewing / Annotationsoption hypothes.is [online] nach den Prinzipien der Open Annotation [online] nutzen, z. B. LIBREAS. Library Ideas [online]

2.2.2 Kollaborative Datenbanken und virtuelle Forschungsumgebungen

2.2.3 Wikis und kollaborative Dokumentationsplattformen

2.2.4 Soziale Medien

2.2.5 Weblogs

  • de.hypotheses.org. Wissenschaftliche Blogs: Redaktion. [online]

2.3 Empfehlungen

2.3.1 Empfehlungen an die DH-Community

[25]Die Potenziale der kollaborativen Zusammenarbeit sollten in Forschung, Lehre und Veröffentlichungen der DH-Community intensiv genutzt werden. Daher ist es für die digitalen Geisteswissenschaften unerlässlich, dass starke Autorschaftsmodelle problematisiert werden, dass sich ein bewusster Umgang mit kollaborativen Autorschaften und Beiträger*innenrollen etabliert und – aus pragmatischen Gründen – die jeweiligen Rollen differenziert, klar und persistent zugewiesen werden.

[26]Daneben ist es eine wissenschaftspolitische Aufgabe der DH-Organisationen und ihrer Vertreter*innen, auch in der politischen Öffentlichkeit und in den akademischen Institutionen diese Formen einer kollaborativen (und gegebenenfalls auch anonymen oder pseudonymen) Autorschaft als Teil einer besseren wissenschaftlichen Praxis zu legitimieren und zu etablieren. Dies bedeutet zum einen eine kompetente Hilfestellung bei der Aufbereitung der zu berücksichtigenden Rollen, Kompetenzen und Zuweisungen und zum anderen die Einrichtung von wissenschaftlichen Organen zur selbständigen Evaluierung solcher Rollen im Kontext der einschlägigen Online-Ressourcen.

2.3.2 Empfehlungen für die Förderinstitutionen und akademischen Institutionen

[27]Wissenschaftliche Förderinstitutionen entscheiden sich bei der Vergabe von Forschungsmitteln im Regelfall auch für die Förderung eines spezifischen Autor*innenprofils. Feste Stellen an Universitäten werden gerade auch auf Basis individueller Schriftenverzeichnisse (Monografien und Aufsätze mit Einzelautorschaft) vergeben. Für die Stellenprofile in den (nicht nur digitalen) Geisteswissenschaften ist allerdings eine Vielzahl von methodologischen, analytischen, informationellen und gestalterischen Fertigkeiten wichtig, die im Regelfall in kollaborativen Projektzusammenhängen erworben werden. Daher sollten geisteswissenschaftliche Institutionen Verfahren entwickeln, wie sie differenzierte Autorschafts- und Beiträger*innenrollen als Teil ihrer Vergabepraxen nutzen können.

[28]Zudem ist es wichtig, dass in den Digital Humanities noch stärker interdisziplinär, historisch und kritisch zu Fragen des geisteswissenschaftlichen Autorschaftsbegriffs, zur Geschichte des kollaborativen Schreibens und Arbeitens sowie zur Wissenschaftlichkeit verschiedener Textformate geforscht wird.

2.3.3 Empfehlungen an die Öffentlichkeit und die Politik

[29]Digitale wissenschaftliche Publikationen spielen weit mehr als ihre analogen Vorbilder auch in die nicht-wissenschaftliche Öffentlichkeit hinein und können gerade durch ihre Transparenz und soziale Medialität in einen offenen Diskurs mit anderen gesellschaftlichen Gruppen treten. Die Bedeutung einer solchen Popularisierung des wissenschaftlichen Wissens für seine gesellschaftliche Verbreitung und Nutzung sollte innerhalb der akademischen Institutionen aufgewertet werden, zumal die Digital Humanities auf diese Weise besser zur kritischen Reflektion der digitalen Gesellschaft beitragen können. Auch spezifisch digitale Veröffentlichungsformen wie Blogpostings und die intensive Nutzung sozialer Medien zur Wissenschaftskommunikation oder die Mitarbeit an Datenbanken und virtuellen Forschungsumgebungen sollten als wichtiger und innovativer Teil des wissenschaftlichen Publizierens berücksichtigt und angemessen kreditiert werden.

[30]Medien, Politik, Universitäten und Schulen sollten eine Kultur vertreten, in der die mediale Konstellation einer Interaktion zwischen wissenschaftlichen Autor*innen und sogenannten ›Lai*innen‹ produktiver gemacht werden kann. Die in solchen digitalen Öffentlichkeiten notwendigen Medienkompetenzen sollten deshalb wesentlich stärker in der akademischen und schulischen Lehre verbreitet werden.

3. Publikationsinfrastrukturen

3.1 Welche Publikationsinfrastrukturen stehen Autor*innen zur Verfügung?

[31]Bei der Veröffentlichung digitaler wissenschaftlicher Publikationen im deutschsprachigen Raum können Autor*innen auf verschiedene Infrastrukturen zurückgreifen. Neben wissenschaftlichen Bibliotheken bieten zunehmend auch unabhängige Verlage oder Plattformen mit niedrigschwelligen Angeboten eine Alternative zu den etablierten Modellen der Veröffentlichung an. Im Folgenden sollen diese Publikationsinfrastrukturen skizziert werden.

3.1.1 Wissenschaftliche Bibliotheken und Forschungseinrichtungen

[32]Vor dem Hintergrund schnell wachsender Bestände haben Bibliotheken früh die elektronische Publikation als Alternative zum gedruckten Werk in Betracht gezogen.[15] Entsprechend wurden in den letzten Jahren vorwiegend an Universitätsbibliotheken Kompetenzzentren und Dienstleistungen entwickelt, die es Studierenden und Forschenden erlauben, ihre Forschungsergebnisse zu publizieren. Eine im universitären Kontext entstandene Arbeit kann über einen hochschuleigenen, in der Regel frei zugänglichen Publikationsserver veröffentlicht und im jeweiligen Bibliothekskatalog nachgewiesen werden. Zumeist geht mit dieser Veröffentlichung eine Vergabe eines Persistent Identifiers (PID), wie z. B. DOI auf Publikationsebene, einher, wie auch die Zuordnung zu einem PID des*der Autor*in und die Langzeitarchivierung des digitalen Objekts. Die Veröffentlichung von digitalen Dokumenten auf einem hochschuleigenen Publikationsserver ist nicht ausschließlich auf Dissertationen und Habilitationen oder andere wissenschaftliche Publikationen (Artikel, Monografien usw.) beschränkt, sondern sie umfasst darüber hinaus auch Forschungsdaten oder andere mit dem wissenschaftlichen Erkenntnisprozess verbundene digitale Informationsressourcen.

[33]Im Bereich der Open-Access-Publikationen (OA-Publikationen) bieten Bibliotheken und Forschungseinrichtungen beratende Dienstleistungen und Schulungen an, die es ermöglichen, komplexere Publikationsverfahren für einen größeren Kreis von Nutzer*innen zugänglich zu machen. Trotz Variationen bei den angebotenen Dienstleistungen wird sowohl der Prozess zur Erstellung und Veröffentlichung eines digitalen Objekts unterstützt als auch die Publikation von wissenschaftlichen Artikeln, E-Journals und Monografien über die Bereitstellung einer entsprechenden Infrastruktur. Eine Beispiel dieser Entwicklung stellt das Software-Projekt Open Journal Systems (OJS) dar, welches von einer internationalen Community entwickelt, gepflegt und zur Verfügung gestellt wird. Mit aktuellen Infrastrukturprojekten wie dem Netzwerk OJS-de greift u.a. die Deutsche Forschungsgemeinschaft (DFG) diesen Community-Aspekt für den deutschsprachigen Raum auf und unterstützt mit ihrer Förderung die Koordination von digitalen Publikationsprozessen für neu gegründete oder zur Online-Publikation wechselnde Journale. Damit soll besonders der Aufbau von Publikationsinfrastrukturen für ganze Buch- oder Schriftenreihen über bibliothekseigene Plattformen hinaus gefördert und die Vernetzung vorangetrieben werden.[16] Vergleichbare Ziele werden auch von der Arbeitsgemeinschaft der Universitätsverlage oder den europäischen Initiativen Association of European University Presses (AEUP) und OPERAS verfolgt.

[34]Speziell bezogen auf die Gründung eines Journals verfügen viele Bibliotheken mit dem Zeitschriften-Redaktionssystem OJS über eine Open-Source-Software und das notwendige Fachwissen, um Studierende und Forschende im Prozess des Publizierens wissenschaftlicher Zeitschriften zu unterstützen. Mit Hilfe von OJS können vom Redaktionsprozess bis zur Publikation der Zeitschrift alle Arbeitsschritte an die Bedürfnisse der Herausgeber*innen angepasst werden. Neben der Veröffentlichung von digitalen Publikationen auf universitätseigenen Servern und der Beratung zur Platzierung von Artikeln bei einem digitalen Verlag oder einer (kommerziellen) Plattform wie JSTOR wird demnach die Veröffentlichung eigener E-Journals auf struktureller Ebene unterstützt.

[35]Insgesamt ist anzumerken, das OJS zwar eine Lösung zur Verfügung stellt, die technische und redaktionelle Betreuung der Plattform und der Autor*innen jedoch von der jeweiligen Institution getragen und damit in personelle Strukturen überführt werden muss.

3.1.2 Unabhängig agierende Publikationsinfrastrukturen

[36]Neben wissenschaftlichen Bibliotheken und Forschungseinrichtungen haben sich im Rahmen der Open-Access-Bewegung andere, unabhängig agierende Publikationsinfrastrukturen wie die Open Library of Humanities (OLH) etabliert. Als eine Non-Profit-Organisation setzt sich die OLH für die kostenneutrale Veröffentlichung wissenschaftlicher Artikel ein, mit dem Ziel, insbesondere OA-Publikationen in den Geistes- und Sozialwissenschaften zu fördern. Ein umfassendes Angebot an Dienstleistungen bietet auch das akademische Publikationsportal OpenEdition an, das mit Calenda, Hypotheses, OpenEdition Books und OpenEdition Journals die community- und länderübergreifende Veröffentlichung von Veranstaltungen, Blogs, Büchern und Journalen für Geistes- und Sozialwissenschaften ermöglicht. Weitere Beispiele für unabhängige Publikationsinfrastrukturen sind das 2018 gegründete Konsortium verschiedener OA-Verlage scholar-led presses oder das von weltweit über hundert Institutionen geförderten OA-Verlagskonzepts Language Science Press.

3.1.3 Zukünftige Entwicklungen

[37]Das Projekt DEAL zeigt beispielhaft den Wandel, in dem sich das wissenschaftliche Verlagssystem befindet. Vorangetrieben werden Initiativen zur Veränderung einerseits über die Finanzierung von Open-Access-Publikationen, wie sie die Deutsche Forschungsgemeinschaft (DFG) maßgeblich unterstützt. Andererseits bilden nationale Kontaktpunkte wie OA2020-DE einen strategischen Ansatz mit dem Ziel, Voraussetzungen und Strukturen für eine großflächige Open-Access-Transformation zu schaffen. Die genannten Beispiele zeigen, dass von Seiten der etablierten Verlage einerseits Zugeständnisse z. B. bei der Verteilung einstehender Kosten gemacht werden, andererseits entdecken gerade die großen Verlage Open Access als neues Geschäftsfeld für sich und passen ihre Publish-and-Read-Modelle (PAR-Modelle) und Kosten entsprechend an. Insgesamt stellen die genannten Transformationsverträge für alle Seiten nur einen Zwischenschritt dar, erste Anzeichen der Veränderung sind jedoch auszumachen. Diese Entwicklung im Verlagswesen wird auch weitreichende Folgen für die Publikationsinfrastrukturen haben. So wäre eine engere Kooperation zwischen Verlagen und den bereits existierenden Strukturen der Fachinformationsdienste (FID) denkbar.

[38]In dem Pilotprojekt OPEN Library Politikwissenschaft werden in Kooperation mit dem Verlag transcript, dem FID Politikwissenschaft und der Staats- und Universitätsbibliothek Bremen sowie Knowledge Unlatched neue Modelle der Veröffentlichung erarbeitet.[17] Über diese Art der Zusammenarbeit könnten zukünftig neue Strukturen der Finanzierung wie z. B. die Integration von Crowdfunding geschaffen und damit die digitalen Publikationen als Alternative zu herkömmlichen Veröffentlichungswegen fest im deutschen Wissenschaftssystem verankert werden – eine Entwicklung, die je nach Fachdisziplin bereits unterschiedlich weit vorangeschritten ist. Zugleich könnte auch die Verfügbarkeit beziehungsweise die Abdeckung mit wissenschaftlicher Literatur über die Konsortien-Bildung gesteigert werden, sodass Forschende und Lehrende ortsunabhängig auf die benötigten Titel zugreifen könnten.

[39]Der Aufbau von dauerhaften und vor allem verlässlichen Finanzierungsstrukturen ist aktuell noch in Diskussion. Die DFG unterstützt Hochschulen bei der Einrichtung von Publikationsfonds, die sich derzeit aus einem Eigenanteil und Bezuschussung zusammensetzen. Zu diesem Punkt siehe ausführlich das Kapitel 6 Open-Access-Publizieren.

3.2 Welche Qualitätskriterien sind für eine Veröffentlichung anzulegen?

[40]Um die Qualität der Veröffentlichungen im Bereich des digitalen Publizierens zu gewährleisten, werden im Folgenden verschiedene Kriterien für eine digitale Veröffentlichung vorgestellt. Die Auflistung soll hierfür Anregungen geben, ein Anspruch auf Vollständigkeit wird hingegen nicht erhoben.

[41]Bei einer digitalen wissenschaftlichen Publikation sind folgende Punkte zu beachten:

[42]Die Dateien-Erstellung sollte nach internationalen Standards erfolgen (vgl. Kapitel 1). Nicht jedes Dateiformat eignet sich für die Online-Veröffentlichung sowie die langfristige Archivierung. Für die Veröffentlichung auf einem Publikationsserver werden daher von vielen Hochschulen Dateien im PDF/A-Format (ISO 19005-1:2005,)[18] vorausgesetzt.[19]

  • Digitale Objekte sollten mit einem Persistent Identifier (PID) versehen werden (DOI, URN). Autor*innen sollten ebenfalls über PID wie z. B. ORCID in den Werken aufgeführt und damit referenzierbar in Erscheinung treten.
  • Für die Erschließung, Speicherung und Archivierung der digitalen Objekte werden internationale Standards wie z. B. METS / MODS, EDM oder Dublin Core verwenden.

[43]Das DINI-Zertifikat für Open-Access-Publikationsdienste, insbesondere der entwickelte Kriterienkatalog, sollte beachtet werden. [20] 

3.3 Best-Practice-Beispiele

3.3.1 Bibliothekarische Informations- und Publikationsangebote

[44]Das Thema des Open-Access-Publizierens wird in Deutschland zwar von vielen Hochschul- und Institutsbibliotheken aufgegriffen, die entwickelten Dienstleistungen sind jedoch unterschiedlich weit ausgereift. Die folgende Liste zeigt daher eine Auswahl an Standorten mit OA-Dienstleistungen als Orientierungshilfe auf:

3.3.2 Plattformen / Übergreifende Angebote

3.4 Empfehlungen

3.4.1 Wissenschaftliche Bibliotheken

[45]Der Ausbau der Dienstleistungen im Open-Access-Publizieren zur Unterstützung der Wissenschaftler*innen ist unabdingbar. Wissenschaftliche Bibliotheken spielen beim Aufbau dieser Strukturen eine zentrale Rolle, indem Sie Infrastrukturen bereitstellen und die entsprechenden Kompetenzen vermitteln. Um den Anforderungen des digitalen Publizierens gerecht zu werden, sollte die Vermittlung von Informationskompetenzen[21]bestenfalls im Studium verankert werden. Das betrifft auch die Ausbildung von Kompetenz im Umgang mit den Publikationssystemen wie OJS, da auf die Einbindung externer Dienstleister verzichtet werden kann. Die Vernetzung und verstärkte Verknüpfung von hochschuleigenen Servern für digitale Publikationen mit anderen Hochschulen und offenen Nachweissystemen (z. B. BASE) sollte ausgebaut werden. 

3.4.2 Übergreifende Publikationsstrukturen

[46]Die Nutzung bestehender Strukturen wie beispielsweise der Fachinformationsdienste oder nationaler und internationaler Hostingdienste sollte vor dem Aufsetzen von ›Insellösungen‹ geprüft werden. Bestehende Softwarelösungen zum Aufbau und Betrieb eines institutionellen Repositoriums, wie z. B. DSpace, MyCoRe oder EPrints bieten für unterschiedliche Anforderungen skalierbare Werkzeuge an. Mit dem Aufbau kollaborativer Strukturen, wie z. B. Forschungsverbünden oder Universitätskooperationen können beispielsweise Hosting-Kosten oder redaktionelle Workflows geteilt werden. Auch können entsprechende Kompetenzen über Fort- und Weiterbildungsangebote in den Institutionen erlangt oder Stellen für neue Berufsgruppen wie digitale Redakteur*innen geschaffen werden.

4. Peer-Review-Verfahren und ihre Rahmenbedingungen

4.1 Digitale Begutachtungskulturen

[47]Standardisierte Begutachtungsverfahren, in den MINT-Fächern schon lange als Formen der Qualitätssicherung etabliert, werden auch zunehmend für das wissenschaftliche Publizieren in den Geisteswissenschaften eingefordert. Für das digitale Publizieren gelten Peer-Review-Verfahren in gesondertem Maß als Garant für eine umfassende Qualitätskontrolle. Denn diese belegen nicht nur die Seriosität des wissenschaftlichen Werks, das bewertet wird, sondern stärken zugleich auch die Legitimität der digitalen wissenschaftlichen Plattform, auf der publiziert wird. Beides dient nicht zuletzt auch einer Sicherung des Vertrauens in die Wissenschaft. Auch Fördermittel vergebende Institutionen setzen zunehmend voraus, dass Forschungsergebnisse in digitalen Publikationsumgebungen mit einem nachgewiesenen Review-Verfahren veröffentlicht werden. Etabliert ist in diesem Zusammenhang das sogenannte Peer-Reviewing, das als eine Form von Bewertung durch anerkannte Autoritäten im Fach verstanden wird, wodurch aber auch hegemoniale Strukturen fortgeschrieben werden (können). Gängige Begutachtungskriterien sind z. B. die wissenschaftliche Relevanz oder der Innovationsgehalt eines Werkes, methodische Genauigkeit, korrekter Umgang mit Quellen und Zitaten oder Stringenz der Argumentation.

[48]Dies birgt jedoch bereits Setzungen, die vom Wissenschaftsbetrieb nicht unkritisch gesehen werden. Denn viele Faktoren beeinflussen den Begutachtungsprozess und prägen die Begutachtungskultur, angefangen von der Auswahl der Begutachtenden bis hin zu Verfahren der Kommunikation über die Entscheidungsfindung. Zudem ist aus dem einstigen Kampf um den begrenzten Raum in einer Printpublikation, die eine Begutachtung und Vorauswahl eingereichter Texte notwendig machte, in der potenziell unbegrenzten digitalen Umgebung ein Kampf um die Veröffentlichung in möglichst etablierten Publikationsumgebungen (mit einer entsprechend hohen Ablehnungsrate) geworden.[22] Je nach Betrachtungsweise lassen sich Begutachtungsverfahren hinsichtlich ihrer inhaltlichen Filterfunktion demnach zwischen einer Unkultur von etablierten Machtkonstellationen einerseits und der Vorstellung einer angenommenen Idealität wissenschaftlicher Fairness mit dem Ziel einer objektiven Beurteilung andererseits verorten. Es stellt sich zudem die Frage, ob die angestrebte Anonymität bei Review-Verfahren dem Prozess einer Öffnung von Wissenschaftskulturen im Sinne von Open Science / Open Scholarship entgegensteht (Blind- vs. Open-Review-Verfahren) und welches Ausmaß an Offenheit im Einzelfall wünschenswert und / oder notwendig ist.

[49]Diese kurze Bestandsaufnahme zeigt bereits, dass ein einheitliches Bild einer Begutachtungskultur nicht zu erhalten ist. Begutachtungskulturen spiegeln vielmehr ein Verständnis der Wissenskultur wider, aus der sie stammen, die sie begleiten und bewerten. Für das digitale Publizieren können die (Print-)Konventionen des Peer-Reviews grundsätzlich überdacht werden, da es im digitalen Raum andere Möglichkeiten und noch keine etablierten oder normierten Verfahren gibt, Begutachtungsprozesse als Bestandteil eines Werks abzubilden, um Transparenz einerseits, aber auch die Anerkennung der Leistung von Gutachter*innen andererseits zu fördern. Automatisierungen ermöglichen auch neue Optionen für die Blind-Review-Verfahren, so dass sich hier anders gelagerte Begutachtungskulturen ausprägen können.

4.2 Mögliche Review-Verfahren

[50]Digitale Begutachtungen lassen sich grundsätzlich zu zwei unterschiedlichen Zeitpunkten im Veröffentlichungsprozess ansetzen.[23] Es ist sowohl möglich, die Begutachtung vor der Veröffentlichung eines Werks durchzuführen und diese gegebenenfalls sogar zu verhindern (Pre-Publication-Review), als auch eine Begutachtung nach der Veröffentlichung eines Werkes anzusetzen, was gegebenenfalls zur Revision eines Werkes führt (Post-Publication-Review). In Zusammenhang mit einer Post-Publication-Begutachtung wird mitunter kritisiert, dass hierbei vorläufige Versionen und nicht qualitätsgesicherte Inhalte veröffentlicht werden können.[24]

[51]Pre- wie Post-Publication-Review haben in ihren möglichen Ausformungen große Schnittmengen. Blind-Review-Verfahren stehen dabei solchen gegenüber, die eine maximale Offenlegung und Transparenz im Sinne eines Open-Reviews anstreben. Es ergibt sich jedoch auch eine Vielzahl an Mischformen, in denen z. B. nur Gutachten, nicht aber die Gutachter*innen selbst intern (Pre-) oder extern (Post-) bekannt gemacht werden. Im Folgenden geben wir einen Überblick über die Grundsatzverfahren. Unterschiedliche Spielarten und Varianten sind je nach Publikationsprojekt und -umgebung denkbar.

4.2.1 Editorial-Pre-Review

[52]Ein redaktionsinternes Vorab-Review (Editorial-Pre-Review), etwa durch Reihenherausgeber*innen oder Zeitschriftenredakteur*innen, das die formalen Eigenschaften prüft, reguliert und gegebenenfalls zur Nachbesserung auffordert, unter Umständen aber auch schon eine inhaltliche Vorsortierung vornimmt, wird traditionell in den meisten Fällen eingesetzt. Bei Post-Publication-Review-Verfahren ist dieser Prozess die Voraussetzung für eine formale Qualitätssicherung, denn kein Publikationsformat kann eine Veröffentlichung von unsauberen Texten befürworten, die den Regelstandards der Grammatik und Orthografie sowie den Styleguide-Vorgaben oder dem Profil des Publikationsmediums nicht entsprechen.

4.2.2 Single-Blind-Peer-Review

[53]Peer-Review ist als Form der Qualitätssicherung wissenschaftlicher Texte – ausgehend von den Naturwissenschaften – das inzwischen am weitesten verbreitete Verfahren und hat sich auch in den Geisteswissenschaften zunehmend etabliert. Single Blind bedeutet hier, dass der*die Autor*in des Textes zwar dem*der Gutachter*in bekannt ist, umgekehrt der*die Autor*in aber nicht weiß, wer den Text begutachtet. Diese Intransparenz gibt häufig Anlass zur Kritik, da sie Verzerrungen im Prozess der Begutachtung aus persönlichen Motiven heraus begünstigt.[25]

4.2.3 Double-Blind-Peer-Review

[54]Bei dem bereits seit langem anerkannten und weit verbreiteten Double-Blind-Verfahren sind sowohl Begutachtende als auch Beitragende anonymisiert. Moderiert wird das Verfahren von einer dritten Instanz, in der Regel der Redaktion oder dem*der Herausgeber*in. Double-Blind-Reviews sind in aller Regel transparent für die Redaktion, die die Anonymisierung durchführt und den Begutachtungsprozess begleitet, wobei diese vor allem in kleinen oder sehr spezifischen Fachgebieten oder innerhalb eines kleineren Sprachraums kaum gewahrt werden kann. Dies stellt auch im Redaktionsalltag ein großes Problem dar, da in kleinen Forschungsfeldern viele Personen aufgrund von Befangenheit bereits als potenzielle Begutachtende wegfallen. Darüber hinaus stehen auch die Double-Blind-Verfahren wegen der Intransparenz der Entscheidungsprozesse häufig in der Kritik. Sowohl beim Single- als auch beim Double-Blind-Verfahren kommt es (dies zeigen Vergleiche mit den Ergebnissen aus Triple-Blind-Verfahren) zur Bevorzugung anerkannter Thesen und Wissenschaftler*innen.[26] Eine Möglichkeit, die Transparenz in diesem Verfahren gegenüber Außenstehenden zu steigern, liegt in der nachträglichen Veröffentlichung der Gutachten. Auf diese Weise finden die Gutachten, die in der Regel mit viel Zeit und Mühe erstellt werden, Eingang in den Prozess der wissenschaftlichen Wertschöpfung, und die Veröffentlichung beugt zudem den oben erwähnten Mechanismen der Verzerrung vor. 

4.2.4 Triple-Blind-Peer-Review

[55]In Triple-Blind-Verfahren sind nicht nur Gutachter*innen und Autor*innen einander unbekannt, auch der Redaktion gegenüber erscheint der*die Autor*in nur anonymisiert. Dieses Verfahren kommt bisher wenig zum Einsatz, digitale Publikationsmedien bieten hier das Potenzial, dies sinnvoll zu nutzen: In digitalen Umgebungen kann das Review-Verfahren soweit automatisiert werden, dass Beiträge in einem Portal eingereicht, ohne personellen Zugriff anonymisiert und qua selektierter Schlagwörter wiederum automatisiert Gutachter*innen zugewiesen werden, deren Klarnamen der Redaktion nicht bekannt sind. So ließe sich eine relativ sichere, in dieser Form nur in digitalen Umgebungen umsetzbare Anonymität im Begutachtungsprozess erreichen.[27] Der Vorteil von Anonymität auf allen Seiten liegt vor allem darin, dass sie sozialen Verzerrungen im Begutachtungsprozess durch mögliche Voreingenommenheiten auf redaktioneller Seite vorbeugt und weniger renommierten Wissenschaftler*innen die Chance bietet, sich mit ihrer Veröffentlichung durchzusetzen.

4.2.5 Open-(Peer-)Review

[56]Open-(Peer-)Review-Verfahren können ebenfalls Pre- oder Post-Publication durchgeführt werden und gelten als Alternative zu den oben beschriebenen, etablierten Blind-Peer-Review-Verfahren. Im Vergleich zu Letzteren sind sie noch wenig standardisiert und umfassen verschiedene Verfahren offener Begutachtung.[28] Die weitestgehende Öffnung liegt bei dieser Variante vor, wenn sowohl Autor*innen- wie auch Gutachter*innen- und Gutachtentransparenz besteht. Offene Review-Verfahren schließen ferner die Option einer nachträglichen Veröffentlichung der Gutachten als Begleittexte einer Publikation mit ein. Eine Option, die noch darüber hinausgeht, ist die Veröffentlichung auch abgelehnter Einreichungen mitsamt der Gutachten, die zu dieser Entscheidung geführt haben. Attraktiv kann es aber auch sein, Texte zunächst als eine Art Preprint zu veröffentlichen, um diese dann offen von der entsprechenden Fachcommunity begutachten zu lassen, bevor Autor*innen den Text gegebenenfalls erneut überarbeiten und die korrigierte Fassung zur Veröffentlichung freigegeben wird. Zur Begutachtung kann entweder jede*r oder auch nur eine vordefinierte Peer-Group zugelassen werden. Über interaktive Elemente ist es darüber hinaus möglich, dass Autor*innen und Begutachtende in einen Dialog miteinander treten. In offenen digitalen Verfahren besteht die Möglichkeit, zeilen- oder absatzpräzise zu kommentieren und dies entsprechend zu visualisieren. Ein großer Vorteil dieser Arbeitsweise ist neben der angestrebten Transparenz, dass wissenschaftliche Ergebnisse schnell und direkt in der Fachcommunity verbreitet und diskutiert werden können sowie ein ebenso schnelles Feedback erhalten werden kann. Dies sollte allerdings moderiert werden, um sicherzustellen, dass die Regeln guter wissenschaftlicher Praxis beachtet werden. Erfahrungen in dem Bereich zeigen, dass es mitunter schwer ist, eine stabile und vielstimmige Community für eine solche offene Kommentierung zu gewinnen — mindestens im selben Ausmaß wie für traditionelle Begutachtungstätigkeiten stellt sich hier die Herausforderung, den mit einer solchen fachlichen Kommentierung verbundenen (Zeit-)Aufwand als Forschungsleistung anzuerkennen, wenn diese in wenig formalisierter Weise passiert. In der geisteswissenschaftlichen Praxis wird das Verfahren bislang unterschiedlich gut angenommen, was auf eine fehlende Innovationsbereitschaft in den verschiedenen Fachdisziplinen einerseits, aber auch auf eine große Unsicherheit in der Umsetzung andererseits schließen lässt. Digitale Publikationsumgebungen bieten in Hinblick auf offene Review-Verfahren viel Spielraum in der Ausgestaltung und können von Programmierseite auch auf eine sukzessive Offenlegung hin angelegt sein. Ebenso können sie schrittweise angepasst werden oder für Beitragende wie Begutachtende Optionen bereithalten, selbst über den Status der Offenlegung zu entscheiden (Gutachter*in möchte öffentlich genannt werden oder nicht, Gutachten können öffentlich eingesehen werden oder nicht). Grundlage hierfür ist eine sehr transparente und konsistente Versionierung(shistorie) (z. B. mit CrossMark-Referenzen), damit User*innen und Leser*innen wissen, in welcher Fassung sie sich bewegen oder damit man zwischen verschiedenen Lesemodi wählen kann.

[57]Beispiele für Open-Peer-Review-Ansätze:

4.3 Begutachtung der technischen Umsetzung digitaler Publikationen

[58]Mit der steigenden Nutzung digitaler Publikationsformen (beispielsweise digitaler Editionen oder Wörterbücher) verändern sich zunehmend die Anforderungen an Gutachter*innen, da sich die Begutachtung nicht mehr nur auf Inhalte, sondern auch auf die technische Umsetzung beziehen kann. Eine nach der Veröffentlichung durchzuführende, technische Begutachtung könnte beispielsweise die Präsentationsformen, Usability sowie die verwendeten Standards im Umgang mit den Datengrundlagen (siehe Kapitel 4.1) und die Nachnutzbarkeit einer digitalen Publikation einschließen. Bei Fachwissenschaftler*innen fehlt hierfür gegebenenfalls die Expertise, sodass unter Umständen eine Trennung von formaler, inhaltlicher und technischer Begutachtung in Erwägung gezogen werden könnte. Klar definierte und auf die Zielgruppe zugeschnittene Bewertungskriterien sind des Weiteren bei der technischen Begutachtung sinnvoll.

4.4 Empfehlungen

[59]Der grundsätzliche Einsatz von Review-Verfahren vor oder nach der Veröffentlichung in digitalen Publikationsumgebungen erscheint sinnvoll, da dadurch die Qualität digitaler Publikationen moderiert gestärkt wird und dies zur Konsolidierung des WWW als verlässlichem Publikationsort und vertrauenswürdiges ›Archiv‹ wissenschaftlicher Arbeiten insgesamt beitragen kann. Die vielfältigen operativen Optionen im Review-Verfahren zeigen, dass es eine breite Palette an Gestaltungsmöglichkeiten gibt, die es im jeweiligen Einzelfall zu prüfen sowie für den jeweiligen Einsatz abzuwägen gilt und die in digitalen Umgebungen an das Profil und die Bedingungen der spezifischen Form der Publikation angepasst werden können. Der DHd empfiehlt, dabei solche Verfahren umzusetzen, die einer Öffnung von Wissens- und Wissenschaftsdiskursen Rechnung tragen: Begutachtungsverfahren, die die Transparenz von Ideen fördern, sind daher exklusiven Verfahren vorzuziehen. Abzuwägen bleibt, inwiefern Blind-Verfahren hermetisch organisiert sein müssen, denn auch hier bieten sich Möglichkeiten der Offenlegung. DHd befürwortet digitale Publikationen, die ihr Peer-Review-Verfahren klar benennen und deren Bedingungen und Richtlinien transparent und offen darlegen.

5. Zitationsprozesse: Identifikation und Auffinden von digitalen Publikationen

5.1 Zitationsprozesse

[60]Das Rückgrat jeder digitalen Publikation im wissenschaftlichen Kontext bilden die Zitierfähigkeit und die Stabilität des Textes. Ohne die Möglichkeit von zuverlässigen und beständigen Identifizierungen sind wissenschaftliche Texte in digitaler Form nur eingeschränkt nutzbar und Potenziale des digitalen Publizierens bleiben ungenutzt. Während im modernen Druck der Buchtitel in Verbindung mit Seitenzahlen oder Zeilenzählungen die Grundlage für wissenschaftliches Arbeiten dadurch schuf, dass Aussagen durch Zitate verlässlich überprüft werden konnten, müssen für elektronische Medien Mechanismen geschaffen werden, die Ähnliches leisten. Anders als im Druck können aber nicht mehr physische, materialgebundene Einheiten wie Seitenzahlen verwendet werden, sondern es bedarf spezieller Identifier, die idealerweise weltweit eindeutig sind und die so verlässliche Zugriffsmöglichkeiten auf die Dokumente bieten. Die URL als das bekannteste Adressierungsverfahren im WWW ist zwar weltweit eindeutig, bietet aber weder eine Garantie für die dauerhafte Bereitstellung des Dokumentes noch für dessen Unveränderlichkeit. Des Weiteren identifiziert die URL nur den auf dem Ausgabegerät beim Aufruf dargestellten Inhalt, möchte man aber eine vom Verlauf der Browsersession abhängige Ansicht oder nur einen Teil des gezeigten Inhalts, wie z. B. den vierten Eintrag in einer Trefferliste oder eine Einheit eines längeren Textes zitieren, so ist die URL dafür nicht ohne Weiteres geeignet. Aus dem Wechsel eines Servers, der Neustrukturierung von Internetangeboten oder durch das Ändern der Inhalte können verwaiste Links resultieren.[29] Hierdurch wird der für das wissenschaftliche Arbeiten obligatorische Faktor der Nachvollziehbarkeit der belegten beziehungsweise zitierten Quellen erschwert und das grundsätzliche Vertrauen der Wissenschaftler*innen in das Format digitaler Publikationen beschädigt. Die Lösung des skizzierten Problems besteht in der Referenzierung von Dokumenten mittels Persistent Identifiern, die durch institutionell-organisatorische Gewährleistungen die Eindeutigkeit, Stabilität und Persistenz der Dokumente absichern, und sie zugleich mit einer technischen Infrastruktur verkoppeln, die es durch Internettechniken erlaubt, die referenzierten Dokumente auch aufzufinden.[30]

[61]Auch besteht bei digitalen Publikationen die Möglichkeit, eine feinere Granularität bei den Referenzierungen zu erreichen. In digitalen Volltexten ist theoretisch jeder Buchstabe gesondert zitierbar und neben den technischen Möglichkeiten, die sogenannte Fragment Identifier oder Web Annotations zu verwenden, können durch die Einschaltung einer solchen institutionellen Ebene Policies definiert und kontrolliert werden. Dadurch können, je nach Identifier-Bestandteilen oder sonstigen Parametern, Anfragen differenziert weiter aufgelöst, parallele Sichten (Text / Digitalisat) oder alternative Repräsentationen desselben Textes (XML / PDF / HTML) angeboten und zugleich auf der Governance-Ebene die Permanenz dieser weiteren Differenzierungen gewährleistet werden. Während bei Digitalisaten nach Vorgabe der DFG-Praxisregeln üblicherweise eine Identifizierung auf der Seitenebene (Image) stattfindet, hat sich für digitale Volltexte noch kein Standard wirklich durchgesetzt. Aktuelle Bemühungen und technische wie organisatorische Entwicklungen deuten allerdings darauf hin, dass auch hier die Möglichkeiten präziserer und transparenterer Adressierungen zunehmend in Anspruch genommen werden.[31]

[62]Ein weiteres Motiv, das in der Entwicklung digitaler Zitationen eine Rolle spielt, ist die Möglichkeit, die Zitationen selbst als Daten zu behandeln. Durch die Verwendung eindeutiger Identifier lassen sich über verschiedene Zitierstile hinweg Referenzen identifizieren und es gibt Repositorien solcher Zitationsdaten, die zu verschiedensten Zwecken ausgewertet werden.[32] Um die soeben skizzierten Potenziale auszubauen beziehungsweise Ziele zu erreichen, sollten die Vorteile und die Notwendigkeit einer persistenten Adressierung stärker in den Fokus der digitalen Infrastrukturmaßnahmen rücken und auch als Best Practice beim wissenschaftlichen Arbeiten angesehen werden.

5.2 Persistente Identifikation und Adressierung

[63]Persistente Identifikatoren liefern folgende Vorteile, mit denen sie die Qualität des wissenschaftlichen Diskurses steigern und das Vertrauen der Wissenschaft in digitale Publikation fördern:

  • Dauerhafte Identifikation der publizierten Ressourcen
  • gewährleistete Nachhaltigkeit der Texte
  • Das Verlinken der Texte wird gefördert, was sich positiv auf die wissenschaftliche Reputation auswirkt, indem es die Reichweite erhöht
  • Verfügbarkeit, Sichtbarkeit und Nachnutzbarkeit der Texte werden erhöht
  • einfache Zitation, bessere Nachvollziehbarkeit für die Forschung
  • Nachweismöglichkeit von Zitationsraten
  • erhöhte semantische Interoperabilität der Publikation durch die Metadaten, die bei der Erhebung von persistenten Adressierungen anfallen. Informationen über miteinander in Beziehung stehende Texte können so festgehalten werden. Entscheidend ist dabei die Qualität der Metadaten, die sich nicht zuletzt auch in der Verwendung von Normdaten (z. B. GND, ORCID) manifestiert

[64]Das Verfahren der persistenten Identifikation wird über sogenannte Persistent Identifier (PID) realisiert. PID trennen anders als die URL die Identifikation der Objekte von ihrem Standort.[33] Für die Referenzierung wird dabei eine eindeutige Zeichenkette verwendet, die allein der Identifikation dient. Anders als die Identifikation und Referenzierung eines Dokuments, ist dessen Auffinden und Herunterladen damit noch nicht gewährleistet, insofern diese Zeichenkette (z. B. ein DOI wie 10.5281/ZENODO.31780) nicht durch das HTTP-Protokoll aufgelöst werden kann, sondern eines dazwischenliegenden Mechanismus bedarf, um auf die zum Objekt gehörende Adresse beziehungsweise URL aufgelöst zu werden. Der als Resolving bezeichnete Mechanismus benötigt somit eine digitale Infrastruktur (z. B. den unter https://doi.org/… erreichbaren Dienst), sodass für die Verwendung von PID auch aufgrund ihrer Langfristigkeit eine institutionelle Unterstützung notwendig ist. Da diese Infrastruktur in vielen Fällen nicht die Ressource selbst speichert, sondern nur eine stabile und zuverlässig aktualisierte Assoziation eines eindeutigen und langfristig reservierten Identifiers mit einer ›beweglichen‹, anderweitig gespeicherten Ressource darstellt, ist die Gefahr, die Ressource möglicherweise nicht mehr auffinden und herunterladen zu können, noch nicht gebannt.[34] Anders als im Falle der URL-Adresse bei verschwundenen Webseiten erhält man aber in so einem Fall mindestens noch Metadaten über die ursprünglich erreichbare Ressource und nicht bloß einen Fehlercode, der auf vielfältige Ursachen zurückgehen könnte. Offenkundig hängt der Vorteil einer solchen PID-Infrastruktur davon ab, dass der Resolver-Dienst langlebiger als die ursprüngliche Publikationsplattform ist und langfristig die Eindeutigkeit der vergebenen Identifier garantiert sowie auf Änderungen der Speicherorte reagiert. Daher werden solche Infrastrukturen zumeist von Konsortien mit einer Vielzahl von Partnern und/oder von explizit langfristig eingerichteten Kulturerbeeinrichtungen getragen. Es existieren unterschiedliche Konsortien, die als Registrierungs-, Kontroll- und Infrastrukturinstanz-PI-Systeme anbieten, u. a. das Handle-System oder Persistent URL (PURL).[35] Im Kontext der wissenschaftlichen Veröffentlichungen werden aktuell die Systeme Digital Object Identifier (DOI) und Uniform Ressource Name (URN) am meisten verwendet. Jeder DOI-Name muss mit einem Metadatensatz verknüpft sein, der bibliografische und inhaltliche Informationen zu dem registrierten Datensatz beinhaltet.[36] Somit dient der DOI-Name auch dem Datenaustausch und dem Nachweis des Datensatzes. URNs werden vor allem im bibliothekarischen Bereich verwendet und bilden einen Bestandteil für die Katalogaufnahmen. Sie setzen sich aus mehreren hierarchischen Teilbereichen zusammen. Die Deutsche Nationalbibliothek stellt ein zentrales URN-Schema für den Namensraum ›urn:nbn.de‹ zur Verfügung und stellt einen Resolving-Dienst zur Verfügung.[37] 

[65]Besonderes Augenmerk sollte aber auf das Zusammenspiel von PID-Mechanismus und dem Repositorium gelegt werden, in dem die publizierte Ressource langfristig archiviert werden soll: Oft übernehmen mit langfristiger Datenhaltung betraute Institutionen wie Bibliotheken sowohl die Speicherung als auch die Vergabe von Identifiern und betreuen ›ihre‹ Identifier bei den Resolving-Diensten, d. h. sie aktualisieren die entsprechenden Verweise, wenn die Adresse des Archivals sich doch einmal ändern sollte.[38] Auch wenn ein Resolver-Dienst zwar feststellen kann, dass für einen ›seiner‹ Identifier die Ressource nicht mehr am angemeldeten Ort auffindbar ist, so ist es ihm doch unmöglich, z. B. die neue Adresse nach einem ›Umzug‹ der Ressource zu kennen, so dass neben der langfristigen Betreuung des Resolver-Dienstes durch das PID-Konsortium eine aktive Kooperation und Mitteilung durch die datenhaltenden Repositorien unabdingbar ist. Und während auch kommerzielle wie nichtkommerzielle Verlage beide Dienste in zum Teil substanziellem Umfang anbieten und für ihre Ressourcen in der Regel eine enge Integration von Resolver und Archiv gewährleisten, sind Vorbehalte gegenüber Lösungen, die von einem wirtschaftlichen oder politischen Akteur alleine getragen werden, angebracht.[39]

[66]Welche Technik das jeweilige (trusted) Repository für die persistente Identifikation verwendet, ist grundsätzlich abhängig vom vorliegenden Material und dem Verwendungszweck. Daher – und weil verschiedene Disziplinen und Publikationsformen je anderen Gepflogenheiten unterliegen und verschiedene Autor*innen auf je andere institutionelle Angebote zurückgreifen können – kann in diesem Rahmen keine eindeutige Empfehlung ausgesprochen werden. Als ein wesentlicher Vorteil von Digital Objekt Identifier (DOI) sei aber die Vergabe und Kontrolle durch eine Registrierungsagentur sowie die zusätzlich stattfindende Qualitätsprüfung vergebener DOIs durch die DOI-Foundation genannt. Zwar werden auch Uniform Resource Names (URN) qualitätsgeprüft, allerdings können sie im Gegensatz zu DOIs nur auf Seiten der Vergabeeinrichtung aufgelöst werden. Handles sind dagegen eher für große Datenmengen (Big Data) geeignet, da sie allerdings durch keine übergeordnete Einrichtung geprüft werden, sind sie für wissenschaftliches Zitieren von Texten weniger geeignet. Zudem haben sich in den Entwicklungen des Forschungsdatenmanagements und der Empfehlungen zur Zitation wissenschaftlicher Software in der Praxis Dienste etabliert, die DOIs verwenden und diesen auch in wissenschaftlichen Feldern zu einiger Verbreitung verhelfen.[40]

[67]Für die Durchsetzung einer persistenten Identifikation sollte der Vorgang der Registrierung einer digitalen Publikation entweder für den*die Autor*in intuitiv und mit wenig Aufwand möglich sein und / oder als Dienstleistung von Forschungseinrichtungen angeboten werden. Die Verpflichtung einer dauerhaften verbindlichen DOI-Registrierung sollte von den Anbieter*innen durch Absichts- und Garantieerklärungen deutlich gemacht werden, zu denen ergänzend auch eine Exit-Strategie gehört (beispielsweise Bodleian Libraries digital policies: DOI assignment[41] oder die Institutionelle Muster-Policy für die Registrierung von Digital Object Identifiers (DOI)[42]).

5.3 Versionierung

[68]Da eine der wesentlichen Eigenschaften digitaler Texte ihre Veränderbarkeit ist, ist eine persistente Identifikation alleine jedoch nicht ausreichend, um eine wissenschaftliche Zitierfähigkeit zu gewährleisten. Zusätzlich bedarf es einer Versionierung des Textes mit der Angabe der Versionsunterschiede. Denn es soll ja in der Regel möglich sein, eine Ressource im Zuge weiterer wissenschaftlicher Arbeiten und Erkenntnisse zu aktualisieren, oder umgekehrt, zu erkennen, ob für ein gegebenes – etwa über einen Persistent Identifier aufgefundenes – Dokument die aktuellste oder eine veraltete / historische Fassung vorliegt. Die verschiedenen Fassungen des Dokuments müssen dabei jederzeit wiederherstellbar sein, was eine verlässliche Archivierung erfordert. Durch ein Versionierungssystem werden die Faktoren der Textstabilität und der Modifizierbarkeit von Texten verein- und abbildbar. Ähnlich wie bei Wikipedia ließen sich so frühere Zustände leicht rekonstruieren. Um Möglichkeiten zu schaffen, Texte auch nach deren verbindlicher Veröffentlichung zu bearbeiten, sollten Anbieter*innen von Publikationsumgebungen daher ein Versionierungssystem (z. B. git) anbieten. Grundvoraussetzung für die Wahl eines geeigneten Versionssystems ist wiederum die öffentliche Zugänglichkeit der Texte und die Vergabe von freien Lizenzen.

[69]Vor dem Hintergrund erprobter Web-Technologien und aus technischer Sicht erscheint Memento bedenkenswert, eine erweiterte Variante dieser Praxis: Ein Repositorium hält überholte Versionen von Dokumenten vor und beim Aufruf des Dokuments kann über ein standardisiertes Protokoll auf die Verfügbarkeit einer aktualisierten Version hingewiesen beziehungsweise eine historische Version des Dokuments ausgeliefert werden. Diese Technologie liegt dem Portal archive.org und vielen anderen Web-Archiven zugrunde und wird für Wiki und Spezifikationen des W3C eingesetzt. Da dieses Verfahren einigen Aufwand mit sich bringt, wird es sich wohl nur schwer in der Wissenschaft etablieren lassen.[43] Jedoch ist diese Methode sehr flexibel und kann gerade im Bereich des Zitierens von komplexen Webansichten oder von Forschungsergebnissen, die über Tools generiert worden sind, eine bedenkenswerte Alternative darstellen, z. B. über sogenannte Robust Links.[44]

[70]Das Verhältnis solcher Strategien zu Persistent Identifiern ist im Übrigen noch klärungsbedürftig, sind doch die im Memento-Protokoll verhandelten Dokument-Adressen in der Regel keine persistenten Adressen, und umgekehrt stellen das DOI-System und andere PI-Mechanismen den einzelnen Registrierungsagenturen frei, wie sie mit Versionierung verfahren.[45]

5.4 Textkombinationen und Textoberflächen

[71]In den hier vorherrschenden Diskussionen liegt der Schwerpunkt auf dem Zitieren der Texte ›an sich‹, ihrer Passagen und Fragmente sowie ihrer Überarbeitungsstadien. Im digitalen wissenschaftlichen Arbeiten werden Einsichten allerdings zunehmend auch aus gleichsam ›ephemeren‹ Konstellationen gewonnen, die auf der Grundlage von solchen Texten oder Datenbanken und von Benutzer*innen-Interaktionen dynamisch erzeugt werden: Textfragmente werden durch Filter neu zusammengestellt,[46] Ansichten werden je nach Spezifika der Anzeigegeräte oder eingegebener Suchbegriffe angepasst und durch visuelle Hervorhebungen verändert usw. Die wissenschaftlich aufschlussreichen – und deshalb wünschenswerterweise zu zitierenden – Textphänomene sind weder in den Ursprungstexten ›an sich‹ noch in den Tools eingeschrieben, noch sind sie je annähernd erschöpfend von Autor*innen und Publizist*innen antizipierbar. Zwar betreffen sie vorrangig die ›Oberfläche‹ der Texte, aber auch Oberflächenphänomene sollten wohl zitierbar sein. Im Grunde bedarf es einer Zitation nicht nur der Texte, sondern auch der Regeln, nach denen diese (zum Zeitpunkt der Zitation) zusammengestellt werden sowie der nur zur Laufzeit bekannten Variablen, die in diesen Regeln auf die Texte angewandt werden.[47] Hierfür gibt es jedoch noch kaum Erfahrungen und Empfehlungen. Am ehesten lässt sich an das vergleichsweise junge TEI-Processing-Modell und das ODD-Datenformat (One Document Does it all) denken, mit denen Datenschema und Aufbereitungsregeln gekapselt und neben dem Text selbst zitiert werden können (wobei hier die Parameter für die konkret zu zitierende Konstellation nicht erfasst werden), oder an Workflows und Formate der Webarchivierung denken (die aber nur die Oberfläche und nicht ohne Weiteres die zugrundeliegenden Daten erfassen). Diese Fragen werden sicherlich in der zukünftigen AG-Arbeit eine wichtige Rolle einnehmen.

5.5 Zitierstile

[72]Bei der Verwendung von Persistent Identifiern sind zwei Anwendungsszenarien zu unterscheiden: Während für die maschinelle Weiterverarbeitung die Angabe des Persistent Identifiers vollkommen ausreichend ist, benötigen Forscher*innen zusätzlich weiterhin die gewohnten bibliografischen Angaben. In diesem Bereich existieren eine Reihe von etablierten Zitierrichtlinien, die sich bei den einzelnen Fachdisziplinen unterschiedlicher Beliebtheit erfreuen. Eine Festlegung auf einen Standard erscheint aufgrund der diversen Zitiertraditionen als nicht aussichtsreich. Als gemeinsamer Standard würde jedoch die ISO-Norm 690:2010[48] am ehesten in Frage kommen. Die Arbeit mit den unterschiedlichen Zitierstilen kann im Bereich des digitalen Publizierens durch die automatische Generierung und Formatierung von Zitationen und Bibliografien sowohl auf Seiten der Autor*innen wie auch redaktioneller Seite erleichtert werden. Zur Beschreibung von Formaten für bibliografische Angaben und Zitierstile steht mit der Citation Style Language (CSL) eine XML-Sprache zur Verfügung, die sich zunehmender Beliebtheit erfreut und u. a. auch von Literaturverwaltungsprogrammen wie Zotero und Publikationsplattformen wie OJS, Islandora oder Drupal unterstützt wird.[49]

[73]Unabhängig von der gewählten Zitierrichtlinie sollte beachtet werden, dass die verwendete Zitierweise obligatorische Angaben für digitale Ressourcen standardisiert berücksichtigt:

  • Persistent Identifier
  • Versionsnummer oder ID
  • Medien- / Objekttyp verbunden mit einem kontrollierten Vokabular (z. B. text / html, XML / TEI-P5 usw.)
  • Moderne Publikationsformate (z. B. Tweets, Blogs, Forschungsdaten) 

[74]Ein Beispiel dafür wäre folgende Zitation: 

[75]Katja Kwastek: Vom Bild zum Bild – Digital Humanities jenseits des Textes. In: Grenzen und Möglichkeiten der Digital Humanities. Hg. von Constanze Baum / Thomas Stäcker. 2015 (= Zeitschrift für digitale Geisteswissenschaften / Sonderbände, 1). text / html Format. DOI: 10.17175/sb001_002

[76]Durch diese Angabe würden die bisher üblichen Angaben der URL und des Zugriffszeitpunktes obsolet werden. Denn diese Praxis ist derart unsicher, dass sie nur als temporär befristetes Phänomen gelten kann. 

5.6 Empfehlungen

5.6.1 Empfehlungen an Forscher*innen

[77]Forscher*innen sollten bei der Zitierung von wissenschaftlichen Texten auf die Angabe der PID achten und bei eigenen Publikationsvorhaben Umgebungen bevorzugen, welche die Vergabe von PID anbieten. Bei der Publikation von Texten sind Formate und Aufbereitungsmethoden vorzuziehen, die sich in nachvollziehbarer, möglichst von Ausführungsumgebung und -zeitpunkt unabhängiger Weise beschreiben lassen, denn wenn möglich sollte so eine Beschreibung der Prozesse in den Nachweis der Texte beziehungsweise in die Zitation mit eingehen. Im Falle von in XML/TEI kodierten Texten bedeutet dies, dass Validierungsschema und Prozessierungsmodell anhand der Zitation leicht aufgefunden werden können, entweder weil sie bereits mit genannt werden, oder weil sie in der zitierten XML/TEI-Ressource prominent, persistent und – was die verschiedenen Überarbeitungs- und Entwicklungsstadien der Prozesse angeht – präzise verlinkt sind.

[78]Für das Zitieren von anderen Datensichten oder für die besonders auf die Oberflächen (HTML-Ansichten) von Texten und von textbasierten Arbeitsergebnissen abhebende Zitation, die je nach Thema und Fachkultur wichtig sein kann, bietet sich Folgendes an: Die Wayback Machine des Internet Archive sichert kontinuierlich Webseiten; einzelne Seiten zur sofortigen Sicherung anzumelden, ist auf der archive.org-Seite unter ›Save Page Now‹ möglich, was nach erfolgreicher Archivierung eine persistente URL nach dem Schema https://web.archive.org/web/20200814074420/https://dig-hum.de/ (mit Datum und Original-URL) zur Verfügung stellt. Diese Adresse sollte – natürlich mit weiteren Angaben zur zitierten Ressource sowie mit der Original-Web-Adresse – in Zitationen angegeben werden. Bei der Publikation von Web-Ressourcen sollte darauf geachtet werden, dass alle relevanten Informationen zum Erzeugen einer jeden Ansicht als Parameter in der Adresse enthalten sind, so dass die Kopie des Webarchivs unter der angegebenen Adresse auch tatsächlich die gewünschte Ansicht speichert.[50]

5.6.2 Empfehlungen an Anbieter*innen von Publikationsplattformen

[79]Wie am Beispiel des Internet Archive deutlich wird, ist die Voraussetzung für eine solche nachhaltige Publikations- und Zitationspraxis, dass die Anbieter*innen von Publikationsplattformen neben der Vergabe von PID auch die langfristige Sicherung und die Versionierung der Texte unterstützen. Da dies eine Zusicherung erfordert, die möglicherweise über die eigene Aktivität und Existenz hinausreicht, sollte eine Teilnahme an konsortialen Programmen wie DOI, URN oder Handle für die Identifier bzw. LOCKSS, CLOCKSS oder Portico für die Archivierung erwogen werden. Des Weiteren sollten Anbieter*innen die Nutzenden über die Nutzungsbedingungen der Publikationsumgebung ausreichend informieren. Darüber hinaus sollten die Betreiber*innen der Publikationsplattformen auf eine schnelle und nutzer*innenfreundliche Auffindbarkeit der Texte und ihrer Versionen achten. Die Mechanismen der Versionierung und Identifikation von digitalen Publikationen können nur dann ihre Wirkung entfalten, wenn die entsprechenden Veröffentlichungen im Nachweissystem recherchierbar und somit leicht auffindbar sind. Anstatt Texte also in geschlossenen Systemen zu publizieren, sollten wissenschaftliche Arbeiten in Open-Access-Repositorien und -Publikationsdiensten, die standardisierte Publikationsformate unterstützen, veröffentlicht werden.

5.6.3 Empfehlungen an Förderorganisationen

[80]Diese Punkte sollten bei Projektanträgen auch von den Förderorganisationen als fester Bestandteil gefordert werden.[51] Gleichzeitig sollte in Rechnung gestellt werden, dass in einigen der oben diskutierten Bereichen noch keine etablierten Standards existieren. Zusätzlich sollten Fördereinrichtungen Publikationsinfrastrukturen honorieren, wenn sie hier innovative Lösungsmöglichkeiten entwickeln, etwa eine Verschränkung von Versionierung, langfristiger Archivierung, persistenter Identifikation und transparenter Adressierung bewerkstelligen. Die Qualität von Publikationsinfrastrukturen sollte durch die Vergabe von Zertifikaten und durch das Werben für Open-Access-Repositorien und -Publikationsdienste gefördert werden. Pflege und Wartung der Publikationssysteme verbunden mit der Vergabe von PID erzeugen erhöhte Betriebskosten und für die Teilnahme an Konsortien werden zum Teil Mitgliedschaftsgebühren fällig, so dass die Publikationsumgebungen auf eine beständige Mittelzuweisung und die Möglichkeit, Ausgaben entsprechend abzubilden, angewiesen sind. Die Fördereinrichtungen sollten daher schließlich bedenken, dass eine zuverlässige wissenschaftliche Publikation auch im Open-Access-Bereich Kosten verursacht.

6. Open-Access-Publizieren

6.1 Das Prinzip der Offenheit

[81]Open Access, »der freie Zugang zu wissenschaftlicher Information«,[52] verfolgt das Ziel, dass »allen Menschen Wissen ohne finanzielle, technische und rechtliche Barrieren im Internet zur Verfügung« steht.[53] In den letzten Jahren hat im Zuge der Open-Access-Transformation der Anteil dieser Veröffentlichungen immer weiter zugenommen. Bedeutendster Meilenstein war die Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen[54], unter der sich seit der Erstunterzeichnung 2003 immer mehr Vertreter*innen und Institutionen der internationalen Wissenschaft zu Open Access bekennen. Die Anzahl der Unterzeichner*innen ist inzwischen auf 658 angestiegen, laufend kommen neue Institutionen hinzu.[55]

[82]In der Satzung der DHd heißt es, dass der Verband danach strebt, »den freien Zugang und die freie Nutzung von Wissensbeständen und Verfahren (Open Access, Open Source) zu fördern.«[56] Mit diesem Bekenntnis zum Open-Access-Gedanken wird das Prinzip der Offenheit in einem weiten Sinne verstanden, wie es die wissenschaftspolitische Forderung nach einer Offenen Wissenschaft (Open Science beziehungsweise Open Scholarship) ausdrückt.[57] Dies meint nicht nur den freien Zugang, sondern auch das Recht auf Vervielfältigung, Nachnutzung und Weiterverarbeitung von Inhalten. Dabei sollen diese Rechte nicht auf publizierte Forschungsergebnisse beschränkt bleiben, sondern prinzipiell auch für die zugrundeliegenden Forschungsdaten (Open Research Data), Zusatzmaterialien (Open Supplementary Material), Softwareanwendungen (Open Source) sowie für in der Lehre eingesetzte Bildungsressourcen (Open Educational Resources) gelten. Darüber hinaus sollen Offenheit und Transparenz auch für Begutachtungsverfahren (Open Peer Review) sowie Indikatoren, die ihre Anwendung im Zusammenhang mit Evaluations- und Kreditierungsverfahren finden (Open Metrics), gefördert werden.

[83]Das Prinzip der Offenheit dient vor allem zwei Hauptanliegen der Wissenschaft und damit auch der Digital Humanities.[58] Einerseits soll die Nachvollziehbarkeit von Forschungsergebnissen gewährleistet werden, weshalb nicht nur die entstandenen Resultate, sondern auch die im Zuge ihrer Entstehung durchlaufenen Prozesse transparent sein sollten, einschließlich der Forschungsdaten (z. B. Textkorpora) und Softwareanwendungen (z. B. Algorithmen für Textmining) sowie entsprechender Qualitätssicherungsverfahren. Andererseits soll eine möglichst umfassende (Nach-)Nutzung von Wissensbeständen und Verfahren sowohl innerhalb als auch außerhalb der Wissenschaft ermöglicht werden. Mit Open Access wird nicht zuletzt auch die Auffindbarkeit von Forschungsergebnissen wesentlich verbessert.[59]

6.2 Open-Access-Wege

[84]Man unterscheidet für Open-Access-Veröffentlichungen zwei grundlegende Publikationsstrategien:[60] Erstens den goldenen Weg im Sinne einer Erstveröffentlichung beispielsweise als Artikel in einer Open-Access-Zeitschrift, als Open-Access-Monografie oder als Beitrag in einem Open-Access-Sammelwerk und zweitens den grünen Weg im Sinne einer Zweit- beziehungsweise Parallelveröffentlichung (Preprint, Author Accepted Manuscript / Postprint). Diese kann vor, zeitgleich mit oder nach der final publizierten Fassung (Version of Record / Publisher Version) erfolgen, oftmals jedoch erst nach Ablauf einer Embargofrist.[61] Diese Form der Selbstarchivierung findet zumeist auf einem institutionellen oder disziplinären Open-Access-Repositorium statt, mitunter werden wissenschaftliche Werke jedoch auch auf der eigenen Homepage, der Projektwebsite oder in sozialen Wissenschaftsnetzwerken zugänglich gemacht. Vielfach wird zudem von einem sogenannten grauen Weg gesprochen, bei dem verlagsunabhängig und in der Regel ohne ein Qualitätssicherungsverfahren auf einem Open-Access-Repositorium erstveröffentlicht wird, wobei der Status als Veröffentlichung analog zu dem der sogenannten grauen Literatur umstritten bleibt. Außerdem verfolgen einige Initiativen die Strategie, den goldenen Weg unabhängig von kommerziellen Verlagen gewissermaßen in Eigenregie (z. B. durch Verlagsgründung) beziehungsweise mittels Dienstleistungen von Drittanbietern (z. B. alternative Publikationsplattformen) umzusetzen, wie zum Beispiel die Open Library of Humanities. Während beim goldenen Weg die Nutzungs- beziehungsweise Verwertungsrechte zumeist durch einen Verlagsvertrag geregelt sind und gegebenenfalls durch die Autor*innen mit Hilfe expliziter Lizenzierungsformen (z. B. Creative Commons, Open Data Commons) spezifiziert werden können, bleibt beim grünen Weg eine Zweitveröffentlichung vom Einverständnis des Verlages abhängig, sofern nicht vorab ein entsprechender Vertragszusatz vereinbart wurde.[62] Bei Forschungsdaten und Zusatzmaterialien, die auch unabhängig von der eigentlichen Ergebnis- oder Schlusspublikationen veröffentlicht werden können, bieten sich vor allem spezielle Open-Access-Forschungsdatenrepositorien an, die eigenständige persistente Identifikatoren (z. B. DOI, URN, Handle) vergeben sowie die Möglichkeit bieten, entsprechende Lizenzierungen zu spezifizieren.[63]

6.3 Haltung der Förderorganisationen zu Open Access

[85]Zu den Unterzeichner*innen der Berliner Erklärung über den offenen Zugang zu wissenschaftlichem Wissen von 2003 gehören u. a. die Deutsche Forschungsgemeinschaft (DFG), der Fonds zur Förderung der wissenschaftlichen Forschung in Österreich (FWF) und der Schweizerische Nationalfonds (SNF).[64]

[86]Die DFG verpflichtet ihre Bewilligungsempfänger*innen nicht zur Veröffentlichung der Projektergebnisse in Open Access, spricht aber eine Empfehlung dazu aus. Als Wege der Publikation werden sowohl der grüne als auch der goldene Weg genannt und für Zweitveröffentlichungen besonders auf Repositorien verwiesen.[65] Weiter geht das Bundesministerium für Bildung und Forschung (BMBF), das die Publikation von Zeitschriftenaufsätzen für geförderte Projekte in Open Access als verpflichtend erklärt und für Monografien als begrüßenswert.[66]

[87]Die Fördernehmer*innen des FWF sind zur Open-Access-Publikation verpflichtet.[67] Als Wege der Publikation werden auch hier sowohl der grüne als auch der goldene Weg angesprochen. Die Embargofrist darf dabei nicht mehr als 12 Monate betragen. Zusätzlich werden die Autor*innen zur Archivierung ihrer Publikationen auf einem fachlichen und / oder institutionellen Repositorium verpflichtet. Und auch »[f]ür Forschungsdaten, die den wissenschaftlichen Publikationen des Projekts zugrunde liegen, ist der offene Zugang verpflichtend«.[68]

[88]Der SNF verpflichtet seine Beitragsempfänger*innen ebenfalls grundsätzlich dazu ihre Forschungsergebnisse in Open Access zu veröffentlichen. Dabei gilt die Open-Access-Verpflichtung sowohl bei einer Publikation über den goldenen als auch über den grünen Weg als erfüllt, wenn die Bücher oder Aufsätze spätestens 12 Monate nach der Verlagspublikation frei zugänglich sind.[69]

6.4 Finanzierungs- beziehungsweise Geschäftsmodelle

[89]Da Open-Access-Publikationen zwar nicht auf der Rezeptionsseite, aber sehr wohl auf der Produktions- und Angebotsseite mit Kosten verbunden sind, werden verschiedene Finanzierungs- beziehungsweise Geschäftsmodelle unterschieden. Beispielsweise werden beim Author-Pays-Modell die Kosten von den Autor*innen beziehungsweise mittelbar von ihren jeweiligen Institutionen oder Forschungsförderungsorganisationen durch die Bezahlung einer Publikationsgebühr (Article Processing Charges (APCs) oder Book Processing Charges (BPCs)) getragen, analog und häufig noch zusätzlich zu den traditionellen Druckkostenzuschüssen. Über Open-Access-Publikationsfonds, bei denen die Autor*innen die Beteiligung an Publikationskosten beantragen können, sowie über Open-Access-Verlagsabkommen werden APCs / BPCs zunehmend von Forschungsinstitutionen oder Konsortien übernommen. Ein umstrittenes Finanzierungsmodell stellt das so genannte Hybrid-Open-Access dar, bei dem ein einzelner Artikel einer Closed-Access-Zeitschrift durch Entrichtung einer Gebühr ›freigekauft‹ wird. Kritiker*innen weisen darauf hin, dass in diesem Fall unter Umständen eine Mehrfachfinanzierung (Double Dipping) durch die öffentliche Hand droht, da einerseits die Open-Access-Gebühr anfällt und andererseits die ohnehin zumeist von Bibliotheken getragene Subskription der Zeitschrift, die in der Regel in sogenannten Paketen erfolgt, so dass eine selektive Abbestellung entsprechender Titel nicht möglich ist. ›Transformative‹ Open-Access-Abkommen sollen sicherstellen, dass Zeitschriften vom Subskriptionsmodell dauerhaft auf Open Access umgestellt werden. Weitere Varianten sind etwa das sogenannte Freemium-Modell, bei dem die Grundversion einer Publikation Open Access erscheint und bei Bedarf eine kostenpflichtige Version mit Zusatzfunktionen beziehungsweise -material zur Verfügung steht, sowie Crowdfunding-Modelle und Open-Access-Konsortien.[70]

6.5 Rechtliche Rahmenbedingungen

[90]Open-Access-Publikationen sind an rechtliche Rahmenbedingungen gebunden, die im deutschsprachigen Raum vor allem durch das jeweils geltende Urheberrechtsgesetz vorgegeben werden.[71] Während das Urheberrecht selbst – im kontinentaleuropäischen Raum – unveräußerlich ist, können einfache oder ausschließliche Nutzungsrechte übertragen werden. Üblicherweise werden bei Verlagsverträgen Rechte exklusiv übertragen, was die Möglichkeiten für eine zusätzliche Open-Access-Publikation im Sinne des grünen Weges wesentlich einschränkt.[72] Daher empfiehlt es sich, bei Verlagsverhandlungen einen entsprechenden Zusatz auszuhandeln, der weitere Verwertungsoptionen sowie etwaige Sperr- beziehungsweise Embargofristen regelt.[73] Weitere Optionen für Urheber*innen ergeben sich unter Umständen durch das Zitatrecht, das Zweitveröffentlichungsrecht (in Österreich: Zweitverwertungsrecht) sowie die im Zusammenhang mit der deutschen Urheberrechtsreform diskutierte Bildungs- und Wissenschaftsschranke. Allerdings gelten diese Regelungen eher als restriktiv. So ist zum Beispiel das Zitatrecht bei Texten auf einen geringen prozentualen Anteil limitiert und bei Bildern (Lichtbilder beziehungsweise Lichtbildwerke) ebenfalls stark eingeschränkt, insbesondere für eine mögliche Weiterverarbeitung, Vervielfältigung und (Online-)Zurverfügungstellung im Sinne von Open-Access-Publikationen. Das mittlerweile gesetzlich verankerte Zweitveröffentlichungsrecht, das als ein Instrument zur Förderung des grünen Weges von Open-Access-Publikationen angesehen werden kann, wird durch mehrere Vorbedingungen eingeschränkt und ist somit für zahlreiche Publikationen nicht anwendbar. 

6.6 Lizenzierungsformen

[91]Für Open-Access-Publikationen kann eine Spezifizierung der Nutzungs- beziehungsweise Verwertungsrechte mit Hilfe von Open-Content-Lizenzen vorgenommen werden, wie beispielsweise der Creative-Commons-Lizenzen (CC), der Free-Documentation-Lizenz der GNU-Initiative (GFDL), den Digital-Peer-Publishing-Lizenzen oder der Open-Data-Commons-Lizenz.[74] Die Rechteinhaber*innen sind damit in der Lage, die komplizierten und international nicht einheitlichen Regelungen des Urheberrechtes beziehungsweise Copyright Laws durch eine leicht handhabbare, transparente und allgemein verständliche Vergabe von Rechten und Pflichten zu ersetzen. Ein Beispiel für Open-Content-Lizenzierungsformen bieten die weit verbreiteten Creative-Commons-Lizenzen[75]:

  • BY: Namensnennung
  • BY-SA: Namensnennung-Weitergabe unter gleichen Bedingungen
  • BY-NC: Namensnennung-Nicht Kommerziell
  • BY-NC-SA: Namensnennung-Nicht Kommerziell-Weitergabe unter gleichen Bedingungen
  • BY-ND: Namensnennung-Keine Bearbeitung
  • BY-NC-ND: Namensnennung-Nicht Kommerziell-Keine Bearbeitung

6.7 Publikationsplattformen

[92]Für die Open-Access-Veröffentlichung ihrer Forschungsergebnisse können Autor*innen mittlerweile aus einer großen Anzahl von Publikationsplattformen und Infrastrukturen wählen.[76] Dabei kann grundsätzlich zwischen gewinnorientierten und nicht gewinnorientierten Anbietern unterschieden werden. Zu ersteren werden insbesondere traditionelle kommerzielle Verlage gezählt, während institutionell getragene oder von Wissenschaftler*innen geführte (academic-led oder auch scholar-led) Verlage, Zeitschriften und Publikationsplattformen (darunter auch Repositorien) zumeist nicht gewinnorientiert operieren. Im Folgenden werden die wichtigsten einschlägigen Verzeichnisse kurz vorgestellt.

[93]Einen Überblick darüber, welche Verlage Open-Access-Publikationsmöglichkeiten bieten, gibt das Mitgliederverzeichnis der Open Access Scholarly Publishers Association (OASPA), wobei nach Open-Access-Monografien und -Sammelwerken beispielsweise im Directory of Open Access Books und Open-Access-Editionen im Catalogue of Digital Editions recherchiert werden kann. Reine Open-Access-Journals (d. h. keine Hybrid- Open-Access-Zeitschriften) finden sich im Directory of Open Access Journals. Open-Access-Repositorien werden im OpenDOAR – Directory of Open Access Repositories, Forschungsdatenrepositorien im re3data – Registry of Research Data Repositories verzeichnet.

6.8 Empfehlungen

6.8.1 Autor*innen / DH-Community

[94]Autor*innen sollten sich der Bandbreite der möglichen Publikationsstrategien sowie ihrer Spielräume bei der Aushandlung von Verlagsverträgen (z. B. Vertragszusätze) bewusst sein und Verlagen die Verwertungsrechte an ihren Publikationen nicht exklusiv übertragen.

[95]Wenn Autor*innen die entsprechenden Verwertungsrechte an den Verlag übertragen haben, sollten sie jedenfalls von ihrem Zweitveröffentlichungsrecht / Zweitverwertungsrecht Gebrauch machen und die jeweils erlaubte Fassung ihrer Verlagspublikationen als Open-Access-Publikation zur Verfügung stellen.

[96]Es wird ein aktives Open-Access-Publizieren einschließlich offener Forschungsdaten etc. empfohlen. Die Entscheidung für / gegen den grünen oder goldenen Weg sowie Open-(Research-)Data etc. sollten die Autor*innen allerdings immer abhängig von den jeweiligen ethischen, rechtlichen und finanziellen Rahmenbedingungen in jedem Einzelfall treffen.

[97]Die Möglichkeiten der (Nach-)Nutzung von Publikationen, Forschungsdaten etc. sollten über urheberrechtliche Regelungen hinaus durch Open-Content-Lizenzen explizit gemacht werden. Die Spezifizierung von Open-Content-Lizenzen sollten möglichst wenig restriktiv sein, sondern so frei und offen wie möglich (z. B. CC BY).

[98]Wissenschaftler*innen sollten ihrerseits Open-Content-Angebote (z. B. Open Research Data, Open Supplementary Material, Open Source) nachnutzen.

[99]Autor*innen sollten insbesondere bei Open-Access-Veröffentlichungen prüfen, ob der in Frage stehende Verlag als vertrauenswürdig angesehen werden kann, da einige betrügerische Anbieter Open-Access-Geschäftsmodelle (aus-)nutzen.[77]

6.8.2 Politik

[100]Der Standardfall bei der Rechteübertragung an Verlage sollte nicht mehr in einer automatischen Übertragung von ausschließlichen, sondern lediglich in einer von einfachen Nutzungsrechten bestehen.

[101]Mit der Einführung einer Bildungs- und Wissenschaftsschranke (in Deutschland), beziehungsweise freien Werknutzung (in Österreich) im Rahmen des Urheberrechts sollten auch Möglichkeiten für einen freien Zugang zu möglichst allen unterschiedlichen Publikationsformen und zu deren Nachnutzung – vergleichbar der Fair-Use-Regelung des US Copyright Law – entwickelt werden.

[102]Das bestehende Zitatrecht insbesondere für Lichtbilder beziehungsweise Lichtbildwerke sowie Ton- beziehungsweise Filmaufnahmen sollte wissenschaftsfreundlich erweitert werden.

[103]Das bestehende Zweitveröffentlichungsrecht / Zweitverwertungsrecht sollte im Sinne der Autor*innen weiter liberalisiert werden, sodass zukünftig beispielsweise auch Buchkapitel und Beiträge in Sammelbänden oder ganze Bücher im Zuge einer Zweitveröffentlichung rechtssicher Open Access verfügbar gemacht werden können. 

[104]Die Grundausrichtung einer offenen Wissenschaft (Open Science / Open Scholarship) sollte über den Beschluss entsprechender Positionspapiere und Absichtserklärungen hinaus nachhaltig gefördert werden.

6.8.3 Förderorganisationen und Forschungseinrichtungen

[105]Die wissenschaftspolitischen Vorgaben und Empfehlungen hinsichtlich einer offenen Wissenschaft (Open Science / Open Scholarship) sollten konsequenter gefördert und umgesetzt werden.

[106]Open-Access-Publikationen (einschließlich offener Forschungsdaten etc.) von Autor*innen sollten in der Forschungsbewertung besonders honoriert werden.

[107]Für Bibliotheken sollte eine sukzessive anteilige Umwidmung von Erwerbungsmitteln zur Finanzierung offener digitaler Publikationen, Infrastrukturen und Services vorgesehen sein.[78]

[108]Institutionelle Publikationsfonds zur Finanzierung der Gebühren von Open-Access-Publikationen sollten langfristig abgesichert werden.

[109]Es sollten fachspezifische Kriterien und Anreizsysteme für den Aufbau und die Förderung von Open-Science-Infrastrukturen und -Services entwickelt werden, insbesondere Prozesse zur Standardisierung beziehungsweise Interoperabilität.

[110]Infrastrukturleistungen (z. B. Aufbau, Betrieb und Weiterentwicklung von Open-Science-Infrastrukturen, Programmieren von Softwareanwendungen) sollten mehr Anerkennung finden und bei der Kreditierung entsprechend berücksichtigt werden.

6.8.4 Verlage

[111]Verlage sollten zeitgemäße und möglichst modularisierte Dienstleistungen für digitale Publikationen entwickeln und anbieten.

[112]Open-Access-Angebote von Verlagen sollten nicht nur auf den Zugang (Leserecht) beschränkt bleiben, sondern möglichst offene Lizenzen bieten, die auch das Recht auf Vervielfältigung, Weiterbearbeitung und Langzeitarchivierung einschließen.

7. Ausblick

[113]Die hier vorliegende überarbeitete Version des Working Papers verdeutlicht auch im Vergleich zur ersten, im Jahr 2016 verfassten und veröffentlichten Version die zunehmende Etablierung und damit verbunden die steigende wissenschaftliche Anerkunng der digitalen Publikationspraxis in den Geisteswissenschaften. Trotz vorhandener Unterschiede in den einzelnen Fachdisziplinen ist das digitale Publizieren zu einem festen Bestandteil der Wissenschaftskommunikation geworden. Gleichzeitig demonstriert die Notwendigkeit einer überarbeiteten Version des Working Papers die Dynamik des digitalen Publizierens und es ist sicherlich keine gewagte Thesen, dass gerade die Ausweitung der Publikationslandschaft und die damit einhergehenden Veränderungen Faktoren sein werden, welche die Wissenschaft auch in den kommenden Jahren verändern werden.[79][80] Vielleicht werden sich die Diskurse dabei weniger auf den medialen Wandel selbst als auf die Frage nach einer eigenen digitalen Buchkultur fokussieren. In diesem Kontext scheinen vor allem alternative digitale Publikationen von Interesse, welche zum Anlass genommen werden können, um über die Akzeptanz von einzelnen Publikationsleistungen zu reden – dies betrifft Formate ebenso wie die bei einer Publikation beteiligten Akteure*innen. Gerade die Neujustizierung der am Publikationsprozess beteiligten Stakeholder ist ein noch offener Vorgang, der sich zwar aktuell durch Vielfalt auszeichnet, angesichts der dem Publikationswesen inhärenten Kommerzialisierung aber auch grundsätzliche Fragen aufwirft zum Verhältnis von Autor*innen, Bibliotheken und Verlagen. Gerade zwischen Verlagen und Bibliotheken scheinen sich neue Kooperationsformen[81] zu bilden, welche für die Weiterentwicklung von Open Access und die Frage nach der zukünftigen Finanzierung auch dringend notwendig sind. In diesem Kontext existiert noch ein gewisser Widerspruch zwischen der politischen Förderung von Open Science bei gleichzeitiger Wahrung der rechtlichen Bastionen gegenüber einem vollwertigen Open-Access-Weg in der Wissenschaft.

[114]Digitales Publizieren bleibt ein Feld mit noch nicht ausgeschöpftem Potenzial und viel Experimentierfreude. Dies drückt sich nicht zuletzt in einer verstärkten Zuwendung zu Open-Peer-Review-Verfahren und dem Einsatz communitybasierter Qualitätssicherungsmaßnahmen aus – auch dieses Working Paper konnte von diesen Verfahren profitieren. Neben Potenzialen existieren aber gerade im Bereich der Standards noch Bedarfe, die es zu klären gilt, um Unsicherheiten und Vorbehalte gegenüber dem digitalen Publizieren weiter abzubauen. An Diskursen wird es in den kommenden Jahren daher sicherlich nicht mangeln und die DHd AG Digitales Publizieren wird sich weiterhin mit unterschiedlichen Aktivitäten einbringen und beteiligen.


Fußnoten


Bibliografische Angaben

  • Nicky Agate / Rebecca Kennison / Stacy Konkiel / Christopher P. Long / Jason Rhody, Simone Sacchi / Penelope Weber: The Transformative Power of Values-Enacted Scholarship. In: Humanities and Social Sciences Communications 7 (2020), H. 1. Artikel 165 vom 07.12.2020. DOI: 10.1057/s41599-020-00647-z

  • Open-Access-Strategien für wissenschaftliche Einrichtungen: Bausteine und Beispiele. Hg. von Arbeitsgruppe Open Access der Schwerpunktinitiative Digitale Information der Allianz der deutschen Wissenschaftsorganisationen. Potsdam 2012, S. 2. DOI: 10.2312/allianzoa.005

  • Qualitätsstandards für Open-Access-Monografien und -Sammelbände. der AG Universitätsverlage. Stand vom 04.09.2018. PDF. [online]

  • Auszeichnungssprache. In: Wikipedia. Die freie Enzyklopädie. Lexikonartikel vom 31.01.2021. [online]

  • Opening Science: The Evolving Guide on How the Internet Is Changing Research, Collaboration and Scholarly Publishing. Hg. von Sönke Bartling / Sascha Friesike. Cham u. a. 2014. DOI: 10.1007/978-3-319-00026-8 [Nachweis im GVK]

  • Tim Berners-Lee: Cool URIs don’t change. In: Style Guide for online hypertext. 1998. [online]

  • Bodleian Libraries digital policies: DOI assignment. Hg. von Bodleian Libraries of the University of Oxford. Oxford 2021. [online]

  • Elisabeth Böker: Das Zitieren von DatenPrinzipien und Varianten. In: Forschungsdaten.info. Hg. von Universität Konstanz. Version vom 17.02.2021. [online]

  • Constanze Breuer / Peer Trilcke: Die Ausweitung der Wissenschaftspraxis des Publizierens unter den Bedingungen des digitalen Wandels. Hg. von Arbeitsgruppe »Wissenschaftspraxis« im Rahmen der Schwerpunktinitiative »Digitale Information« der Allianz der deutschen Wissenschaftsorganisationen. 2021. DOI: 10.48440/allianzoa.041.

  • Richtlinie zur Förderung von Forschungsvorhaben. Hg. von Bundesministerium für Bildung und Forschung (BMBF). 13.06.2018. [online]

  • Handbuch Digital Humanities: Anwendungen, Forschungsdaten und Projekte. Hg. von DARIAH-DE. Berlin u. a. 2015. Version 1.0 vom 12.08.2015. [online] [Nachweis im GVK]

  • Data Citation Synthesis Group: Joint Declaration of Data Citation Principles. Hg. von Maryann Martone. In: force11.org/datacitationprinciples. Hg. von Force11. San Diego, CA 2014. DOI: 10.25490/A97F-EGYK

  • Förderprogramm »Infrastrukturen für wissenschaftliches Publizieren«. Hg. von Deutschen Forschungsgemeinschaft (DFG). In: dfg.de. Bonn 2021. Version von 15.01.2021. [online]

  • Verwendungsrichtlinien - Allgemeine Bedingungen für Förderverträge mit der Deutschen Forschungsgemeinschaft e.V. (DFG). Hg. von Deutsche Forschungsgemeinschaft (DFG) (2020a). DFG-Vordruck 2.00 – Version 1/20. Bonn 2020. PDF. [online]

  • FAQ: Open Access. Hg. von Deutsche Forschungsgemeinschaft (DFG) (2020b). In: dfg.de. Bonn 2020. Version vom 29.10.2020. [online]

  • DHd-Satzung. Hg. von DHd. Hamburg 2014. [online]

  • DINI-Zertifikat für Open-Access-Publikationsdienste. Hg. von Deutsche Initiative für Netzwerk e. V., Arbeitsgruppe Elektronisches Publizieren (E-Pub). Version 6.0. Göttingen 2019. (= DINI Schriften, 3) DOI:10.18452/20545 [Nachweis im GVK]

  • Working Paper »Digitales Publizieren«. Hg. von DHd-Arbeitsgruppe »Digitales Publizieren«. 2016. [online]

  • Digitales Publizieren in den Geisteswissenschaften: Begriffe, Standards, Empfehlungen. Hg. von DHd-Arbeitsgruppe »Digitales Publizieren«.. Version 1. Wolfenbüttel 2021. (= Zeitschrift für digitale Geisteswissenschaften / Working Papers, 1). DOI: 10.17175/wp_2021_001.

  • Stephan Druskat / Radovan Bast / Neil Chue Hong / Alexander Konovalov / Andrew Rowley / Raniere Silva: A standard format for CITATION files. In: Software and research. The Software Sustainability Institute’s Blog. Blogpost vom 12.12.2017. [online]

  • Kim Dulin / Adam Ziegler: Scaling Up Perma.cc: Ensuring the Integrity of the Digital Scholarly Record. In: D-Lib Magazine 23 (2017), H. 5/6. DOI: 10.1045/may2017-dulin 

  • Institutionelle Muster-Policy für die Registrierung von Digital Object Identifiers (DOI). Hg. von e-Infrastructures Austria Plus. Innsbruck 2019. DOI: 10.25651/1.2019.0001

  • Martin Paul Eve / Cameron Neylon / Daniel Paul O’Donnell / Samuel Moore / Robert Gadie / Victoria Odeniyi / Shahina Parvin: Reading Peer Review. PLOS ONE and institutional change in academia. Cambridge 2021. DOI: 10.1017/9781108783521

  • Martin Fenner: DataCite Commons - Exploiting the Power of PIDs and the PID Graph. In: blog.datacite.org. Hg. von International Data Citation Initiative e.V. Blogbeitrag vom 27.08.2020. DOI: 10.5438/f4df-4817

  • Kathleen Fitzpatrick: Planned Obsolescence. Publishing, Technology, and the Future of the Academy. In: mcpress.media-commons.org. Media Commons Press. Open Scholarship in Open Formats. Hg. von NYU Press. New York, NY 2009. [online] [Nachweis im GVK]

  • The FAIR Data Principles. Hg. von Force11. In: force11.org. Davis, CA 2020. [online]

  • Open-Access-Strategien für wissenschaftliche Einrichtungen: Bausteine und Beispiele. Hg. von Arbeitsgruppe Open Access der Schwerpunktinitiative Digitale Information der Allianz der deutschen Wissenschaftsorganisationen. Potsdam 2012. DOI: 10.2312/allianzoa.005 [Nachweis im GVK]

  • Matthew K. Gold: The Digital Humanities Moment. In: Debates in the Digital Humanities. Minneapolis, MN 2012. (= Debates in the Digital Humanities, 1) [online] [Nachweis im GVK]

  • Benno Homann: Informationsvermittlung. Standards der Informationskompetenz. In: Bibliotheksdienst 36 (2002), H. 5, S. 625–638. DOI: 10.1515/bd.2002.36.5.625 [kein freier Zugriff] [Nachweis im GVK]

  • IMRAD. In: Wikipedia. Die freie Enzyklopädie. Lexikonartikel vom 27.01.2021. [online]

  • ISO 690:2010: Information and documentation – Guidelines for bibliographic references and citations to information resources. Hg. von International Organization for Standardization. 2010. [online]

  • ISO 14721:2012: Space data and information transfer systems – Open archival information system (OAIS) – Reference model International Organization for Standardization. Hg. von International Organization for Standardization. 2018 (2012). [online]

  • ISO 19005-1:2005: Document management – Electronic document file format for long-term preservation – Part 1: Use of PDF 1.4 (PDF/A-1). Hg. von International Organization for Standardization. 2020 (2005). [online]

  • Ulrike Kändler: Open-Access-Finanzierung. In: Publikationsberatung an Universitäten. Hg. von Karin Lackner / Lisa Schilhan / Christian Kaier. Bielefeld 2020, S. 181–202. DOI: 10.14361/9783839450727-010 [Nachweis im GVK]

  • Jamie Kirkham / David Moher: Who and Why Do Researchers Opt to Publish in Post-Publication Peer Review Platforms? – Findings from a Review and Survey of F1000 Research. In: F1000Research 7 (2017), Nr. 920. Version 1 vom 27.06.2018. DOI: 10.12688/f1000research.15436.1

  • Martin Klein / Herbert van de Sompel / Robert Sanderson / Harihar Shankar / Lyudmila Balakireva / Ke Zhou / Richard Tobin: Scholarly Context Not Found: One in Five Articles Suffers from Reference Rot. In: PLoS ONE 9 (2014), Nr. 12, e115253. Artikel vom 26.12.2014. DOI: 10.1371/journal.pone.0115253

  • Martin Klein / Lyudmila Balakireva: On the Persistence of Persistent Identifiers of the Scholarly Web. In: Digital Libraries for Open Knowledge. 24th International Conference on Theory and Practice of Digital Libraries. Hg. von Mark Hall / Tanja Merčun / Thomas Risse / Fabien Duchateau. (TPDL: 24, Lyon, 25.–27.08.2020) Cham 2020, S. 102–115. (= Lecture Notes in Computer Science) [Nachweis im GVK]  

  • Paul Kimpel / Till Kreutzer: creativecommons.net. 25.02.2021. [online]

  • Hubertus Kohle: Digitales Publizieren. In: Digital Humanities: eine Einführung. Hg. von Fotis Jannidis / Hubertus Kohle / Malte Rehbein. Stuttgart 2017, S. 199–205. DOI: 10.1007/978-3-476-05446-3 [kein freier Zugriff] [Nachweis im GVK]

  • Till Kreutzer: Open Content Lizenzen: ein Leitfaden für die Praxis. Bildung, Wissenschaft, Kultur, Kommunikation. Hg. von Deutsche UNESCO-Kommission e. V. / hbz / Wikimedia Deutschland. Bonn u. a. 2011. [online] [Nachweis im GVK]

  • Mikael Laakso / Lisa Matthias / Najko Jahn: Open is Not Forever: A Study of Vanished Open Access Journals. In: Journal of the Association for Information Science and Technology 72 (2021), H. 9, S. 1099–1112. DOI: 10.1002/asi.24460 [Nachweis im GVK]

  • Gerhard Lauer: Lektüre im Computerzeitalter. In: Frankfurter Allgemeine Zeitung. Artikel vom 26.08.2009. Frankfurt/Main 2009. [online]

  • LdoD Archive: Collaborative Digital Archive of the Book of Disquiet. Hg. von Manuel Portela / António Rito Silva. Coimbra. [online]

  • Colby Lil Lewis: The Open Access Citation Advantage: Does It Exist and What Does It Mean for Libraries? In: Information Technology and Libraries 37 (2018), H. 3, S. 50–65. DOI: 10.6017/ital.v37i3.10604

  • David W. Lewis / Lori Goetsch / Diane Graves / Mike Roy: Funding community controlled open infrastructure for scholarly communication: The 2.5 % commitment initiative. In: College & Research Libraries News 79 (2018), H. 3, 133–136. DOI: 10.5860/crln.79.3.133 [Nachweis im GVK]

  • Berliner Erklärung über den offenen Zugang zu wissenschaftlichem Wissen. Hg. von der Max-Planck-Gesellschaft. München 2003. [online]

  • Nick Montfort / Patsy Baudoin / John Bell / Ian Bogost / Jeremy Douglass / Mark C. Marino / Michael Mateas / Casey Reas / Mark Sample / Noah Vawter: 10 PRINT CHR$(205.5+RND(1)); : GOTO 10. Cambridge u. a. 2013. [online]

  • PDF/A. In: Wikipedia. Die freie Enzyklopädie. Lexikonartikel vom 14.12.2020. [online]

  • Den Kalten Krieg vermessen. Über Reichweite und Alternativen einer binären Ordnungsvorstellung. Hg. von Frank Reichherzer / Emmanuel Droti / Jan Hansen. Berlin u. a. 2018. [Nachweis im GVK]

  • Kevin Richards / Richard White / Nicola Nicolson / Richard Pyle: A Beginner’s Guide to Persistent Identifiers. In: gbif.org. Hg. von GBIF Secretariat. Kopenhagen 2017. Dokument vom 16.08.2017. DOI: 10.35035/mjgq-d052

  • Robust Links - Motivation. In: robustlinks.mementoweb.org. Hg. von Research Library of the Los Alamos National Laboratory und Computer Science Department of Old Dominion University. 29.06.2020. [online]

  • Laurent Romary / Erzsébet Tóth-Czifra: Open Access guidelines for the arts and humanities: Recommendations by the DARIAH European research infrastructure consortium. In: halshs.archives-ouvertes.fr. Hg. von HAL Sciences de l'Homme et de la Société. Version 1, halshs-02106332 vom 18.08.2019. [online]

  • Tony Ross-Hellauer: What Is Open Peer Review? A Systematic Review. In: F1000Research 6 (2017), Nr. 588. Version 2 vom 31.08.2017. DOI: 10.12688/f1000research.11369.2

  • Christa Schöning-Walter: Persistent Identifier für Netzpublikationen. In: Dialog mit Bibliotheken 20 (2008), H. 1, S. 32–38. PDF. [online] [Nachweis im GVK]

  • Kathrin Schroeder: Persistent Identifier (PI) – ein Überblick. In: nestor-Handbuch: Eine kleine Enzyklopädie der digitalen Langzeitarchivierung. Hg. von Heike Neuroth / Achim Oßwald / Regine Scheffel / Stefan Strathmann / Karsten Huth. Version 2.3. Göttingen 2009. URN: urn:nbn:de:0008-2010071949 Siehe auch [Nachweis im GVK]

  • David Shotton: Funders Should Mandate Open Citations. In: Nature 553 (2018), S. 129. Artikel vom 09.01.2018. DOI: 10.1038/d41586-018-00104-7 129292834 

  • Arfon M. Smith / Daniel S. Katz / Kyle E. Niemeyer / FORCE11 Software Citation Working Group: Software Citation Principles. In: PeerJ Computer Science 2 (2016), Nr. e86. Artikel vom 19.09.2016. DOI: 10.7717/peerj-cs.86

  • Ronald Snijder: The deliverance of open access books – examining usage and dissemination. Leiden u. a. 2019. DOI: 10.26530/OAPEN_1004809 [Nachweis im GVK]

  • Praxishandbuch Open Access. Hg. von Konstanze Söllner / Bernhard Mittermaier. Berlin u. a. 2017. DOI: 10.1515/9783110494068 [Nachweis im GVK]

  • Lara Speicher / Lorenzo Armando / Margo Bargheer / Martin Paul Eve / Sven Fund / Delfim Leão / Max Mosterd / Frances Pinter / Irakleitos Souyioultzoglou: OPERAS Open Access Business Models White Paper. In: zenodo.org. Version 1 vom 30.07.2018. DOI: 10.5281/zenodo.1323708

  • Matthias Spielkamp: Zweitveröffentlichungsrecht für Wissenschaftler. Geltende Rechtslage und Handlungsempfehlungen. Berlin 2015. Version vom 28.04.2015. (= iRights. Lab Policy Paper Series, 1) PDF. [online

  • Thomas Stäcker: ›A digital edition is not visible‹ – some thoughts on the nature and persistence of digital editions. In: Zeitschrift für digitale Geisteswissenschaften. Wolfenbüttel 5 (2020). Artikel 5 vom 30.09.2020. DOI: 10.17175/2020_005 [Nachweis im GVK]

  • Aaron Tay: Understanding the implications of Open Citations — how far along are we? In: Academic librarians on open access. Blogbeitrag vom 30.04.2018. Version vom 26.05.2018. [online]

  • TEI Guidelines. P5: Guidelines for Electronic Text Encoding and Interchange. Version 4.2.0. Revision 736c0acf0 vom 25.02.2021. [online]

  • Jonathan P. Tennant / Jonathan M. Dugan / Daniel Graziotin / Damien C. Jacques / François Waldner / Daniel Mietchen / Yehia Elkhatib et al.: A Multi-Disciplinary Perspective on Emergent and Future Innovations in Peer Review. In: F1000Research 6 (2017), Nr. 1151. Version 3 vom 29.11.2017. DOI: 10.12688/f1000research.12037.3

  • Jaime A. Teixeira da Silva / Aceil Al-Khatib / Judit Dobránszk: Fortifying the Corrective Nature of Post-Publication Peer Review: Identifying Weaknesses, Use of Journal Clubs, and Rewarding Conscientious Behavior. In: Science and Engineering Ethics 23 (2017), H. 4, S. 1213–1226. Artikel vom 01.12.2016. [Nachweis im GVK]

  • Ivo Vogel: Open Access für die Rechtswissenschaft: Pflicht oder Privatsache? – Perspektiven aus der akademischen Infrastruktur. In: Open Access in der Rechtswissenschaft: Sonderheft »Rechtswissenschaft«. Hg. von Hanjo Hamann / Daniel Hürlimann. Baden-Baden 2019, S. 192–202. DOI: 10.5771/9783748903659 [Nachweis im GVK]

Webseitenverzeichnis

  • Annotate. Archived Zooniverse Project. [online]

  • Arbeitsgemeinschaft der Universitätsverlage. [online]

  • Association of European University Presses (AEUP). [online]

  • archive.org. [online]

  • BASE. [online]

  • Bundesgesetzes über das Urheberrecht an Werken der Literatur und der Kunst und über verwandte Schutzrechte (Urheberrechtsgesetz). [online]

  • Catalogue of Digital Editions. [online]

  • CENDARI. [online]

  • Center für Digitale Systeme (CeDiS) der Freien Universität Berlin. [online]

  • Citation Style Language. [online]

  • Creative-Commons-Lizenzen. [online]

  • CSL-Repository. [online]

  • da|ra. [online]

  • DataCite Commons. [online]

  • DHd2016. [online]

  • DHd-Arbeitsgruppe »Digitales Publizieren«. [online]

  • Digital Humanities im deutschsprachigen Raum (DHd). [online]

  • Directory of Open Access Books. [online]

  • Directory of Open Access Journals. [online]

  • Directory of Open Access Repositories. [online]

  • Distributed Texts Services Initiative. [online]

  • DSpace. [online]

  • ENABLE! Bibliotheken, Verlage und Autor*innen für Open Access in den Geistes- und Sozialwissenschaften. [online]

  • EPrints. [online]

  • EPUB Canonical Fragment Identifier. [online]

  • Förderlinie Infrastrukturen für wissenschaftliches Publizieren. Hg. von DFG.[online]

  • FWF Open Access für Forschungsdaten. [online]

  • FWF Open Access für Referierte Publikationen. [online]

  • FWF Open-Access-Policy. [online]

  • Gesetzes über Urheberrecht und verwandte Schutzrechte (Urheberrechtsgesetz). [online]

  • git. [online]

  • GuttenPlag Wiki. [online]

  • Heidelberg University Publishing. [online]

  • Humanities Commons. [online]

  • Hypothes.is. [online]

  • Hypotheses.org. Wissenschaftliche Blogs: Redaktion. [online]

  • Informationspraxis. [online]

  • Internet Archiv. archive.org. [online]

  • JSTOR. [online]

  • Kommunikations-, Informations-, Medienzentrum (KIM), Universität Konstanz [online]

  • Kunstgeschichte. [online]

  • Language Science Press. [online]

  • Ldod Archive. [online]

  • LIBREAS. Library Ideas. [online]

  • Mailingliste der AG Digitales Publizieren. [online]

  • MyCoRe. [online]

  • Nomos Verlagsgesellschaft. [online]

  • OA book business models. [online]

  • OA journal business models. [online]

  • OA2020-DE. [online]

  • OJS-de. [online]

  • Old Weather: Whaling Logbooks. [online]

  • Open Access. Der freie Zugang zu wissenschaftlicher Information. [online]

  • Open Access Network. [online]

  • Open Access Scholarly Publishers Association. [online]

  • Open Annotation. [online]

  • Open Journal Systems. [online]

  • Open Knowledge Foundation. [online]

  • Open Library of Humanities. [online]

  • OPEN Library Politikwissenschaft. [online]

  • OpenDOAR – Directory of Open Access Repositories, re3data – Registry of Research Data Repositories. [online]

  • OpenEdition. [online]

  • OpenscienceASAP. [online]

  • OPERAS. [online]

  • perspectivia.net - Die Publikationsplattform der Max Weber Stiftung. [online]

  • Platform for Open Access Publication (PoP) - Forschungsverbund Marbach Weimar Wolfenbüttel (MWW). [online]

  • Projekt DEAL. [online]

  • Registry of Research Data Repositories (Re3Data). [online]

  • ScienceOpen. [online]

  • Shakespeare’s World. [online]

  • SHERPA/RoMEO. [online]

  • SNF Open Access to Publications. [online]

  • Technische Universität Braunschweig. [online]

  • TextGrid. Virtuelle Forschungsumgebung für die Geisteswissenschaften. [online]

  • Think. Check. Submit. [online]

  • Transcribe Bentham. [online]

  • Twitter-Hashtag #dhd2020. [online]

  • Universität Bielefeld. [online]

  • Universitäts- und Landesbibliothek Münster. [online]

  • Universitätsbibliothek Heidelberg. [online]

  • VroniPlag Wiki. [online]

  • wbv Open Library. [online]

  • Wikipedia: Digital Humanities (Versionsgeschichte). [online]

  • Zeitschrift für digitale Geisteswissenschaften (ZfdG). [online]

  • Zenodo-Plattform. [online]

  • Zotero Library. [online]


Über dieses Dokument

[115]Die Herausgeber*innen und Autor*innen sind für alle Verbesserungsvorschläge und Hinweise für eine weitere Überarbeitung des Papers dankbar, dafür kann gerne die Mailadresse t.steyer@tu-braunschweig.de genutzt werden. Alle Links und Verweise wurden letztmalig am 7. September 2020 überprüft. 

[116]Folgende Autor*innen waren an der ersten und zweiten Version des Working Papers beteiligt:

[117]Kapitel 1 Was sind digitale wissenschaftliche Publikationen und welche Möglichkeiten bieten sie? wurde ursprünglich von Christian Schwaderer, Thomas Stäcker und Niels-Oliver Walkowski verfasst und 2019 bis 2020 von Michael Dahnke und Thomas Stäcker überarbeitet und aktualisiert.

[118]Kapitel 2 Was kennzeichnet die digitale wissenschaftliche Autorschaft? wurde 2016 vorgelegt von Anne Baillot und Thomas Ernst sowie 2020/21 von Thomas Ernst überarbeitet.

[119]Kapitel 3 Publikationsinfrastukturen wurde im Februar 2020 von Patrick Dinger, Carsten Elsner und Marie v. Lüneburg für die überarbeitete Version des Working Papers »Digitales Publizieren« neu verfasst.

[120]Kapitel 4 Peer-Review Verfahren und ihre Rahmenbedingungen wurde im März 2016 von Constanze Baum und Esther Chen verfasst und für die aktuelle Version von Constanze Baum, Andreas Ferus, Julia Heinig und Christian Kaier überarbeitet. Das Kapitel 4.3 Begutachtung der technischen Umsetzung digitaler Publikationen ist in der aktuellen Version hinzugekommen.

[121]Kapitel 5 Zitationsprozesse: Identifikation und Auffinden von digitalen Publikationen basiert auf dem ursprünglichen Kapitel 4 Versionierung und Zitationsprozesse vom 01. März 2016. Dieses wurde von Timo Steyer verfasst und von Constanze Baum und Thomas Stäcker redigiert. Für die aktuelle Version haben Timo Steyer und Andreas Wagner die verwendete Literatur aktualisiert, zwischenzeitliche Weiterentwicklungen einfließen lassen und die Argumente zur Adressierung von Textfragmenten ausgebaut. Das Kapitel 5.4 Textkombinationen und Textoberflächen sowie eine Diskussion über Versionierungstechniken auf der Grundlage von Web-Technologien in Kapitel 5.3 sind in der vorliegenden Version hinzugekommen.

[122]Kapitel 6 Open-Access-Publizieren basiert auf Kapitel 5 Open-Access-Publizieren vom 01. März 2016. Das ursprüngliche Kapitel wurde von Ben Kaden und Michael Kleineberg verfasst. Für die aktuelle Version haben Andreas Ferus, Christian Kaier und Jana Madlen Schütte die verwendete Literatur aktualisiert, zwischenzeitliche Weiterentwicklungen einfließen lassen und strukturelle Veränderungen am Aufbau des Kapitels vorgenommen. Die Kapitel 6.3 Haltung der Förderorganisationen zu Open Access und Kapitel 6.7 Publikationsplattformen sind in der vorliegenden Version hinzugekommen.

AG Digitales Publizieren - Beiträger*innen

Constanze Baum Autoreninformationen
Michael Dahnke Autoreninformationen
Patrick Dinger Autoreninformationen
Carsten Elsner Autoreninformationen
Thomas Ernst Autoreninformationen
Andreas Ferus Autoreninformationen
Julia Heinig Autoreninformationen
Christian Kaier Autoreninformationen
Marie von Lüneburg Autoreninformationen
Jana Madlen Schütte Autoreninformationen
Thomas Stäcker Autoreninformationen
Timo Steyer Autoreninformationen
Andreas Wagner Autoreninformationen