Bye, Bye, Bias! Digital-Humanities-Projekte informationsethisch überprüfen und gestalten mit Value Sensitive Design

Views
345
Downloads
4
Open Peer Review
Kategorie
Long Paper
Version
2.0
Weitere Versionen dieses Artikels:
Version 1.0 vom: 08.09.2021

mit Version 1.0 vergleichen
Katharina Leyrer Autoreninformationen

DOI: 10.17175/sb005_003_v2

Nachweis im OPAC der Herzog August Bibliothek: 1839573139

Erstveröffentlichung: 08.09.2021

Version 2.0: 21.03.2023

Lizenz: Sofern nicht anders angegeben Creative Commons Lizenzvertrag

Medienlizenzen: Medienrechte liegen bei den Autor*innen

Letzte Überprüfung aller Verweise: 07.09.2021

GND-Verschlagwortung: Informationsethik | Digital Humanities | Mensch-Maschine-Kommunikation | Design | Bias | 

Empfohlene Zitierweise: Katharina Leyrer: Bye, Bye, Bias! Digital-Humanities-Projekte wertebasiert gestalten mit Value Sensitive Design. In: Fabrikation von Erkenntnis – Experimente in den Digital Humanities. Hg. von Manuel Burghardt, Lisa Dieckmann, Timo Steyer, Peer Trilcke, Niels Walkowski, Joëlle Weis, Ulrike Wuttke. Wolfenbüttel 2021. (= Zeitschrift für digitale Geisteswissenschaften / Sonderbände, 5). Erstveröffentlichung 08.09.2021. Version 2.0 vom 21.03.2023. HTML / XML / PDF. DOI: 10.17175/sb005_003_v2


Abstract

Technologien sind nicht neutral, sondern fördern bestimmte Werte und behindern andere. Das gilt auch für Technologien, die in den Digital Humanities entwickelt und genutzt werden. Daher bedürfen diese Technologien einer ethischen Untersuchung und Einordnung. Der Ansatz des Value Sensitive Design ermöglicht einerseits, systematisch zu analysieren, welche Interessen und Werte in eine bestimmte Technologie eingeschrieben werden und ist zugleich ein Framework, um Technologien wertesensitiv zu entwickeln. Der Beitrag zeigt auf, wie Value Sensitive Design als theoretischer und methodischer Ansatz in den unterschiedlichen Spielarten der Digital Humanities genutzt werden kann.


Technological systems are not neutral but promote certain values and hinder others. That is also true for technologies that are developed and used in the field of Digital Humanities. Therefore, these technologies need to be reviewed from an ethical point of view. Value Sensitive Design is a framework to systematically analyze whose interests and values are implemented in a technological system. At the same time, Value Sensitive Design facilitates accounting for human values when designing technologies. This contribution points out how Value Sensitive Design can be used as a theoretical and methodological approach in different areas of Digital Humanities activities.


Version 2.0 (21.03.2023)

Es wurden folgende Änderungen vorgenommen: Inhaltliche und strukturelle Anpassungen, wie sie von den Gutachten angemerkt worden sind. Aktualisierung und Ergänzung der Fußnoten und der bibliografischen Angaben. Formale Korrekturen.



1. Einleitung

[1]Eine Gesichtserkennungssoftware, die in polizeilichen Ermittlungen in den USA zum Einsatz kommt, erzeugt überdurchschnittlich oft falsche Matches, wenn sie Bilder Schwarzer Menschen abgleicht – weil die Software mit Gesichtern weißer Menschen trainiert wurde. Die Technologie ruft damit rassistische Diskriminierung hervor.[1] Ein selbstlernendes System, das der Konzern Amazon zur Vorauswahl von Bewerber*innen einsetzte, diskriminierte auf Basis binärer Geschlechtszuschreibungen: Die Software bewertete Bewerbungen von Frauen systematisch schlechter als die von Männern.[2] Stereotype auf Basis von religiöser Zugehörigkeit reproduzierte das Sprachmodell GPT-3, zu dessen Nutzer*innen Microsoft gehört: Das Sprachmodell assoziierte Menschen muslimischen Glaubens mit Gewalt.[3] Diese Beispiele zeigen: Technologien können bestimmte Akteur*innen systematisch benachteiligen. Solche Technologien beschreiben Friedman und Nissenbaum als »biased«, da sie »systematically and unfairly discriminate against certain individuals or groups of individuals in favor of others«.[4] Das Design von Technologien bedarf daher einer ethischen Untersuchung.[5]

[2]Warum ist das für die Digital Humanities von Bedeutung? Jedes Digital-Humanities-Projekt hat in irgendeiner Weise mit Technologien zu tun, z. B. wenn Akteur*innen digitale Datensätze erstellen, kuratieren und nutzen, Tools und Analyseverfahren entwickeln und anwenden, Online-Communities und computervermittelte Interaktionen geisteswissenschaftlich untersuchen[6] oder digitale Publikationen und E-Learning-Angebote realisieren.[7] Diese Technologien können – wie alle anderen auch – Bias aufweisen. Aktuell finden ethische Aspekte bei der Konzeption und Realisierung von Digital-Humanities-Projekten, -Technologien und -Infrastrukturen jedoch wenig Beachtung.[8] Für die gute wissenschaftliche Praxis, wie sie beispielsweise die DFG in ihren Leitlinien festschreibt, ist eine ethische Überprüfung von Forschungsvorhaben zugleich unabdingbar.[9]

[3]Dieser Beitrag geht daher der Frage nach, wie Technologien, die in den Digital Humanities entwickelt und genutzt werden, ethisch überprüft und wertebasiert gestaltet werden können. Ziel des Beitrages ist es, zu zeigen, wie Digital Humanities-Projekte auf Basis des Value-Sensitive-Design-Ansatzes aus einer ethischen Perspektive reflektiert und so gestaltet werden können, dass sie die Werte aller beteiligten Akteur*innen berücksichtigen.

[4]Zunächst wird beschrieben, welche verschiedenen Formen von Bias Technologien aufweisen können. Zudem wird skizziert, welche Technologien in den Digital Humanities eine Rolle spielen. Da ethische Reflektionen in den Digital Humanities an die Informations- und Technikethik anknüpfen können, werden daraufhin diese beiden Bereichsethiken kurz umrissen. Anschließend wird der Value-Sensitive-Design-Ansatz vorgestellt, mit dem Technologien wertebasiert analysiert und entwickelt werden können. Obwohl der Ansatz in Feldern wie der Informationstechnologie, dem Bauingenieurswesen und der Gesundheitstechnologie bereits etabliert ist, hat die Anwendung von Value Sensitive Design in den Digital Humanities experimentellen Charakter.[10] Daher wird in Kapitel 5 anhand konkreter Beispiele vorgestellt, wie Value Sensitive Design in den verschiedenen Teilbereichen der Digital Humanities angewendet werden kann.

2. Wie kommt der Bias in die Technologie?

[5]Nach Friedman und Nissenbaum kann Bias in technischen Systemen auf drei unterschiedliche Weisen entstehen.[11] Sie unterscheiden Pre-Existing Bias, Technical Bias und Emergent Bias. Mit Pre-Existing Bias sind Verzerrungen gemeint, die bereits vor der Entwicklung der Technologie existieren: Die Designer*innen oder Auftraggeber*innen schreiben – bewusst oder unbewusst – bereits existierende persönliche oder gesellschaftliche Vorurteile in das System ein. Ein Beispiel: Die automatische Zugangskontrolle zu den Umkleideräumen eines Fitnessstudios in London ordnete Personen mit einem Doktortitel automatisch als männlich ein und verwehrte ihnen den Zugang zu den Damenumkleiden – weil die Designer*innen des Systems davon ausgegangen waren, dass nur Männer einen Doktortitel haben können.[12] Auch die oben bereits erwähnte Software, die Amazon zur Vorauswahl von Bewerber*innen einsetzte, hat einen Pre-Existing Bias: Da das Unternehmen bislang vor allem Männer eingestellt hatte, ging das selbstlernende System davon aus, dass Frauen weniger geeignet für eine Einstellung bei Amazon seien.[13]

[6] Technical Bias entsteht hingegen bei der »resolution of issues in the technical design«[14], beispielsweise durch Limitationen der Hard- und Software oder wenn Algorithmen bestimmte Akteur*innen bevorzugen und andere benachteiligen. So führt die beschränkte Größe von Bildschirmen beispielsweise dazu, dass die Ergebnisliste von Suchmaschinen in verschiedene ›Seiten‹ aufgeteilt wird, die nur nacheinander auf dem entsprechenden Bildschirm angezeigt werden können. Suchergebnisse, die auf der zweiten Seite angezeigt werden, werden jedoch weniger oft angeklickt. Bevorzugt der Algorithmus der Suchmaschine zusätzlich bestimmte Websites und zeigt diese ganz oben in der Ergebnisliste an, werden diese also deutlich öfter angeklickt – es liegt eine unfaire, systematische Diskriminierung vor. Technical Bias kann aber auch entstehen, wenn »Human Constructs«[15] wie Urteile, Diskurse oder Institutionen formalisiert und quantifiziert werden. Dies passiert beispielsweise in Software, die voraussagt, wie hoch die Wahrscheinlichkeit ist, dass ein*e Straftäter*in wiederholt delinquent wird.[16]

[7] Emergent Bias entsteht hingegen erst im Anwendungskontext der Technologie, also wenn Personen die Technologie nutzen. Gründe für Emergent Bias können sein, dass »new knowledge in society«[17] nicht in die Technologie aufgenommen wird oder die Nutzer*innen der Technologie andere Fähigkeiten und Werte haben als die Nutzer*innengruppe, für welche die Technologie ursprünglich designt wurde. Wenn beispielsweise ein Geldautomat, der v. a. schriftbasiert mit Nutzer*innen kommuniziert (z. B. ›Geben Sie unten links Ihre Karte ein‹) in einer Gegend aufgestellt wird, in der viele Analphabet*innen wohnen, entsteht ein Emergent Bias: Die tatsächlichen Nutzer*innen unterscheiden sich in ihren Fähigkeiten von den angenommenen Nutzer*innen der Technologie. Vor allem Benutzeroberflächen weisen oft Emergent Bias auf, da sie mit Blick auf die Fähigkeiten und Gewohnheiten bestimmter Zielgruppen gestaltet werden. Diese können sich jedoch im Lauf der Zeit verändern.[18]

3. Technologien in den Digital Humanities

[8]Technologien können also auf unterschiedliche Weise Bias hervorbringen. Was bedeutet das für die Digital Humanities?

[9]Nach Friedman und Hendry umfassen Technologische Systeme sowohl Werkzeuge und Technologien, als auch Infrastrukturen und Policies. Unter Werkzeugen verstehen sie dabei »physical artifacts that augment human activity«[19] wie z. B. eine Steinaxt oder ein Messer. Wenn darüber hinaus wissenschaftliche Erkenntnisse angewandt werden, um praktische Probleme zu lösen (beispielsweise bei Traktoren und Computern), sprechen Friedman und Hendry von Technologien – wobei die Übergänge zwischen Werkzeugen und Technologien fließend sind. Infrastrukturen beschreiben schließlich alle Einrichtungen und Strukturen, die nötig sind, um ein Vorhaben oder gesellschaftliche Aktivitäten zu realisieren, beispielsweise Straßen und Energieversorgung. Werkzeuge, Technologien und Infrastrukturen stehen dabei in wechselseitiger Abhängigkeit und ergeben in ihrem Zusammenspiel sogenannte Technologische Systeme. Im Folgenden wird der Begriff Technologien als Kurzform für Technologische Systeme genutzt und beschreibt dabei Werkzeuge, Technologien und Infrastrukturen genauso wie deren Zusammenspiel. Schließlich fassen Friedman und Hendry auch Policies, also Regelwerke oder Strategien, unter den Technologie-Begriff, da Policies als »some combination of tool and infrastructure«[20] verstanden werden und menschliches Handeln ebenfalls prägen.[21]

[10]Welche Technologien werden in den DH also genutzt und angewendet? Eine systematische Orientierung bieten dabei die Spielarten der DH, die Roth und Burghardt unterscheiden: Digitized Humanities, Numerical Humanities, Humanities of the Digital und Public Humanities.[22]

[11]Mit dem Begriff Digitized Humanities beschreibt Roth »the creation, curation, and use of digitized data sets«[23] in den Geistes- und Sozialwissenschaften. Akteur*innen in den Digitized Humanities »digitize, store, process, gather, connect, manage, make available, mine and visualize«[24] Texte, Bilder und Multimedia-Artefakte. Dafür entwickeln und nutzen sie Software. In dieser Spielart der DH sind also beispielsweise Datenmanagement- und Datenspeichersysteme, aber auch Visualisierungs-, Analyse-, Scraping- und Optical Character Recognition (OCR)-Tools sowie Benutzeroberflächen von Bedeutung. Darüber hinaus spielen digitale Bibliotheken und Archive als Infrastrukturen eine Rolle, genauso wie Policies für die Erhebung, Kuratierung, Archivierung und Verfügbarmachung von Datensätzen.

[12]In der Kategorie der Numerical Humanities geht es hingegen darum, soziale Prozesse zu formalisieren, indem mathematisch abstrahierte Modelle erstellt werden. Ziel ist dabei, »to capture the possibly general mechanisms at the root of the observed data«[25]. Prozesse softwaregestützt zu realisieren, die andernfalls langwierig oder schwierig umsetzbar sind – wie beispielsweise bei OCR oder statistischen Analysen – versteht Roth dabei nicht als Numerical Humanities; vielmehr zeichnet sich diese Spielart dadurch aus, dass »numerical models of human or social behavior per se«[26] entwickelt werden. Hier kommen vor allem selbstlernende Systeme zum Einsatz, beispielsweise Mustererkennungssoftware, die nach Gesetzmäßigkeiten in bestimmten Datensätzen sucht.

[13]Schließlich beschreibt Roth die Humanities of the Digital als weitere Spielart der DH und meint damit die geisteswissenschaftliche Forschung zu computervermittelter Kommunikation, Mensch-Maschine-Interaktion und Online-Gemeinschaften. Online-Communities werden als sozio-technische Systeme verstanden, die sich durch eigene Regeln und Settings auszeichnen und die es zu untersuchen gilt. So gehören neben Studien zur Rolle von digitaler Kommunikation im Alltag auch Untersuchungen zu Wikipedia, Blogs, Sozialen-Netzwerk-Seiten und Gaming-Plattformen zu den Humanities of the Digital. [27] In dieser Spielart geht es – anders als in den Digitized Humanities und den Numerical Humanities – weniger darum, Technologien anzuwenden und zu entwickeln; technologische Artefakte und Infrastrukturen sind vielmehr der Untersuchungsgegenstand.

[14]Den drei von Roth beschriebenen Teilbereichen der DH fügt Burghardt noch einen vierten hinzu, die Public Humanities. Diese umfassen die Themenfelder des digitalen Publizierens, der Wissenschaftskommunikation und des E-Learning.[28] Hier spielen Infrastrukturen wie Zeitschriften, Portale, Verlage und deren Policies eine Rolle, aber auch Soft- und Hardware, die für die Rezeption digitaler Publikationen und E-Learning-Ressourcen benötigt werden, z. B. E-Book-Formate oder User Interfaces.

4. Ethik in den DH: Informations- und Technikethik

[15]Bisher wurde also deutlich, dass in Digital-Humanities-Projekten verschiedenste Technologien eine Rolle spielen und dass jede Technologie verschiedene Formen von Bias enthalten kann. Damit kann auch jede Technologie, die in DH-Projekten entwickelt oder angewendet wird, biased sein und bedarf einer ethischen Überprüfung. Wie aber können wir den ethischen Herausforderungen begegnen, die sich aus den verschiedenen Technologien in den Digital Humanities ergeben?[29]

[16]Allgemein versucht Ethik die Frage zu beantworten, »wie menschliches Handeln möglich wird, das als gut, richtig und wünschenswert empfunden werden kann«[30]. Dabei gibt es Handlungsbereiche, die spezifische ethische Probleme hervorbringen, welche nur in ihrem jeweiligen konkreten Kontext gelöst werden können. Um diese Probleme zu adressieren, haben sich verschiedene Bereichsethiken entwickelt, beispielsweise die Informations-, die Technik-, die Medien- und die Computerethik. Diese Bereichsethiken sind nicht scharf voneinander abgrenzbar und haben viele Berührungspunkte.[31]

[17]Um ethische Probleme in den Digital Humanities zu diskutieren, kann vor allem an Ansätze der Informations- und Technikethik angeknüpft werden. Die Informationsethik befasst sich mit ethischen Fragestellungen, die im Zusammenhang mit Informations- und Kommunikationstechnologien[32] und »aus den Anwendungen des Internets, des Informationsmanagements und der Computernutzung insgesamt hervorgehen«[33] – und damit also mit den Technologien, die in den DH genutzt und entwickelt werden (vgl. Kapitel 3). Im Fokus steht dabei, wie sich Informations- und Kommunikationstechnologien auf Umwelt und Gesellschaft auswirken.[34] Als zentrale Grundwerte der Informationsethik identifiziert Rösch Informationsfreiheit, Informationsgerechtigkeit, Privatheit, Geistiges Eigentum, Informationsqualität und Informationsökologie.[35]

[18]Darüber hinaus sind in den Digital Humanities auch ethische Aspekte von Bedeutung, die im Zusammenhang mit der sozialen Praxis, der Genese und der Einbettung von Technologien entstehen. Diese sind Gegenstand der Technikethik: Deren Aufgabe ist es, ethische Aspekte, die durch technische Innovationen und den »wissenschaftlich-technischen Fortschritt[…]«[36] entstehen, zu reflektieren und Entscheidungen über Technik auf Basis ethischer Argumente zu ermöglichen. Technikethik beschäftigt sich auch mit der »sozialen Praxis der Technik und ihrer Einbettung, der Praxis der Genese technischer Produkte und Technologien«[37]. Anders als bei der Informationsethik gehen die zentralen Werte der Technikethik dabei deutlich über den Bezugsrahmen der Technik selbst hinaus und umfassen neben Effektivität, Effizienz und Sicherheit auch Gesundheit, menschliches Wohlbefinden, (ökologische) Nachhaltigkeit, Gerechtigkeit, Demokratie, Inklusivität[38] und Geschlechtergerechtigkeit.[39]

[19]In der Informations-, der Technik- und der Computerethik haben sich verschiedene Methoden und Frameworks entwickelt, um die ethische Gestaltung von Projekten und Technologien zu unterstützen, beispielsweise Embedded Ethics oder Partizipatives Design.[40] Kern des Embedded-Ethics-Ansatzes ist es, eine oder mehrere Ethiker*innen an allen Entscheidungen im gesamten Verlauf eines Projektes zu beteiligen.[41] Das Konzept des Partizipativen Designs legt hingegen den Fokus darauf, potentielle Nutzer*innen in den Design-Prozess einzubinden.[42]

[20]Einen Schwerpunkt auf Informations- und Kommunikationstechnologien legt der Ansatz des Value Sensitive Design,[43] der von Batya Friedman bereits in den 1990er-Jahren entwickelt wurde[44] und sowohl in der Technik-, als auch in der Informationsethik eine bedeutende Rolle spielt.[45] Friedman et al. kritisierten, dass die Forschung zur ethischen Gestaltung von Technologien bislang lediglich einzelne Werte wie Privatsphäre, Autonomie oder informierte Einwilligung in den Blick genommen hatte.[46] Daher schlagen sie mit Value Sensitive Design ein »overarching theoretical and methodological framework«[47] vor, mit dem einerseits systematisch analysiert werden kann, welche Werte in eine bestimmte Technologie eingeschrieben sind. Zugleich ermöglicht das Framework, Technologien wertesensitiv zu entwickeln, indem die Werte aller betroffenen Akteur*innen im gesamten Design-Prozess reflektiert und berücksichtigt werden.[48]

[21]Mit Value Sensitive Design können Forscher*innen Technologien und ihre Anwendung also nicht nur ethisch reflektieren, sondern auch im Sinne normativer Ethik »verändernd, regulierend«[49] auf die Entwicklung von Technologien und deren Rahmenbedingungen einwirken. Seit seiner Entstehung vor über 30 Jahren wurde der Value-Sensitive-Design-Ansatz stetig weiterentwickelt und in unterschiedlichen Bereichen angewendet, u. a. in der Informationstechnologie, der Informatik, der Philosophie, der Gesundheitstechnologie und der Pädagogik.[50]

5. Value Sensitive Design: Grundlagen und methodisches Vorgehen

[22]Um Technologien wertebasiert zu entwickeln sieht Value Sensitive Design eine integrative und iterative Methodologie mit drei Untersuchungsabschnitten vor: den konzeptionellen Überlegungen, den empirischen Untersuchungen und den technischen Investigationen.

5.1 Drei Untersuchungsabschnitte von Value Sensitive Design

[23]In den konzeptionellen Überlegungen wird herausgearbeitet, um welche zentralen Themen, Technologien und Werte es geht (siehe auch Beispiele in Kapitel 5.2). Im Mittelpunkt stehen dabei die Fragen:

  • Welche Technologie wird analysiert oder gestaltet?
  • Welche Stakeholder sind direkt oder indirekt von der jeweiligen Technologie betroffen?
  • Welche Werte und Wertkonflikte spielen eine Rolle?

[24]Zentral ist im Value Sensitive Design dabei der Stakeholder-Begriff: Dieser bezieht – anders als der Begriff User – auch diejenigen Akteur*innen mit ein, die zwar nicht direkt mit der Technologie interagieren, auf die sich die Technologie aber dennoch auswirkt: die sogenannten indirekten Stakeholder. Akteur*innen, die direkt mit der jeweiligen Technologie interagieren, werden dagegen als direkte Stakeholder verstanden. Stakeholder können dabei sowohl Individuen, Gruppen, Organisationen und Gesellschaften als auch zukünftige Generationen sein. In den konzeptionellen Überlegungen wird also analysiert, welche Stakeholder direkt oder indirekt von der jeweiligen Technologie betroffen sind und auf welche Weise.[51]

[25]Auch die Werte und Wertkonflikte, die im Kontext der Technologie eine Rolle spielen, werden im Rahmen der konzeptionellen Untersuchungen expliziert und konkret beschrieben. Ein Wert ist dabei, »what a person or group of people consider important in life«[52]. Da der Value-Sensitive-Design-Ansatz den Werte-Begriff damit sehr weit fasst, sieht er vor, auf Basis von Literatur und bisheriger Forschung zu spezifizieren, was genau unter einem bestimmten Wert im jeweiligen Kontext verstanden wird.[53] Als Ausgangspunkt bieten Friedman und Hendry hierfür eine Liste mit 13 Werten, die beim Design technischer Systeme oft eine Rolle spielen und von ethischer Bedeutung sind. Die Autor*innen weisen aber ausdrücklich darauf hin, dass diese Liste nicht vollständig ist.[54] Die Liste umfasst:

  • »Human welfare«
  • »Ownership and property«
  • »Privacy«
  • »Freedom from bias«
  • »Universal Usability «
  • »Trust«
  • »Autonomy«
  • »Informed consent«
  • »Accountability«
  • »Courtesy«
  • »Identity«
  • »Calmness«
  • »Environmental sustainability«[55]

[26]Human welfare meint beispielsweise körperliches und psychisches Wohlbefinden. Der Wert Courtesy bezieht sich darauf, Akteur*innen mit Höflichkeit und Rücksichtnahme zu begegnen. Identity beschreiben Friedman und Hendry als »people’s understanding of who they are over time, embracing both continuity and discontinuity«[56]. Leider kann an dieser Stelle keine ausführliche Diskussion der Werte erfolgen, die Friedman und Hendry aufzählen. Eine Kurzdefinition und ausführliche Literaturhinweise finden sich aber zu jedem der Werte bei Friedman et al.[57]

[27]Wie oben erwähnt ist bei Value Sensitive Design jedoch entscheidend, dass auf Basis von Literatur herausgearbeitet wird, was unter einem bestimmten Wert im Kontext einer konkreten Technologie verstanden wird.[58] Eine umfängliche Konzeptualisierung der Werte, die in den Digital Humanities eine Rolle spielen, kann also nicht unabhängig vom konkreten Kontext der jeweiligen Technologie geleistet werden. In Kapitel 5 wird gezeigt, dass in den Digital Humanities über die hier genannten Werte hinaus beispielsweise auch Geschlechtergerechtigkeit, Barrierefreiheit, globale Gerechtigkeit im Sinne von Teilhabe und Freiheit von Diskriminierung[59], aber auch die in der Informationsethik zentralen Werte Informationsfreiheit und -gerechtigkeit eine Rolle spielen.

[28]Im zweiten Untersuchungsabschnitt, den empirischen Untersuchungen, wird mittels qualitativer und quantitativer Methoden analysiert, wie die betroffenen Akteur*innen die jeweiligen Werte im Kontext der Technologie bewerten und welche Prioritäten sie bei Wertkonflikten setzen (siehe auch Beispiele in Kapitel 5.2). Dieser Teilbereich des Value Sensitive Design sieht darüber hinaus vor, zu einem späteren Zeitpunkt im Design-Prozess empirisch zu prüfen, inwiefern die Technologie die entsprechenden Werte in der Anwendung tatsächlich fördert.

[29]Die technischen Investigationen haben ebenfalls zwei Aufgaben: Erstens, zu analysieren, wie sich bestimmte bereits existierende Charakteristika einer Technologie auf verschiedene Werte auswirken. Zweitens wird in den technischen Investigationen überlegt, wie die Technologie so gestaltet werden kann, dass sie die Werte unterstützt, die in den konzeptionellen und empirischen Untersuchungen herausgearbeitet wurden (siehe auch Beispiele in Kapitel 5.2).[60] Friedman und Hendry betonen dabei, dass Technologien eng mit den sozialen Strukturen verknüpft sind, in die sie eingebettet sind. Um bestimmte Werte zu fördern, muss daher nicht in jedem Fall das technische Design angepasst werden. Eine Lösung kann auch darin bestehen, Policies oder soziale Strukturen zu verändern.[61]

[30]Die drei Untersuchungsabschnitte sind nicht voneinander unabhängig, sondern beeinflussen sich wechselseitig. Die Reihenfolge der Untersuchungsabschnitte ist daher nicht vorab festgelegt; vielmehr ist eine iterative Wiederholung der Investigationen vorgesehen (vgl. Abbildung 1).[62]

Abb. 1: Die drei Untersuchungsschritte
                                    von Value-Sensitive-Design-Analysen. [Leyrer 2021]
Abb. 1: Die drei Untersuchungsschritte von Value-Sensitive-Design-Analysen. [Leyrer 2021]

5.2 Anwendung von Value Sensitive Design: Zwei Beispiele

[31]So weit, so theoretisch: Wie aber sieht es mit Value-Sensitive-Design-Analyse in der Praxis aus? Im Folgenden werden zwei Projekte vorgestellt, die eine Technologie auf Basis von Value Sensitive Design entwickelt haben.

5.2.1 ›Room with a view‹: Virtuelle Fenster in Büroräumen

[32]In dem Projekt ›Room with a view‹ ging es darum, in fensterlosen Büroräumen Bildschirme aufzustellen, auf denen eine Live-Übertragung des Platzes vor dem Bürogebäude zu sehen war. Friedman et al. begleiteten das Projekt mit Value Sensitive Design.[63]

[33]In den konzeptionellen Überlegungen stellten Friedman et al. die These auf, dass der Blick auf ein ›virtuelles Fenster‹ – also die Live-Übertragung einer Straßenszene auf Plasma-Bildschirme – die Gesundheit, das Wohlbefinden und die Kreativität der Beschäftigten steigert. Basis dafür waren verschiedene psychologische Studien, die zeigen, dass der Blick auf Natur-Szenen positive physiologische und psychologische Auswirkungen hat und beispielsweise Stress und Krankheiten reduziert.[64] Direkte Stakeholder der Technologie sind also die Beschäftigten in den fensterlosen Büroräumen, deren Werte Gesundheit und Kreativität gefördert werden sollen. Die ›virtuellen‹ Fenster haben aber auch Auswirkungen auf Personen, die sich auf dem Platz vor dem Bürogebäude aufhalten: Sie werden gefilmt und auf den Bildschirmen in den Büros abgebildet. Sie sind damit indirekte Stakeholder der Technologie. Die Live-Übertragung des Platzes auf Bildschirme in den Bürogebäuden könnte damit die Gefährdung der Privatsphäre der indirekten Stakeholder mit sich bringen.[65]

[34]Ausgehend von diesen konzeptionellen Überlegungen führten Friedman et al. verschiedene empirische Untersuchungen durch, um zu prüfen, inwiefern die Technologie der ›virtuellen Fenster‹ die unterschiedlichen Werte der direkten und indirekten Stakeholder tatsächlich fördert oder behindert. So untersuchten sie zunächst in einem experimentellen Setting, welche Effekte ein Bildschirm, auf dem eine Straßenszene vor dem Bürogebäude live übertragen wird, auf die Büroangestellten hat. Hierzu erhoben die Forscher*innen verschiedene Parameter wie die Blickrichtung, den Puls und verschiedene Leistungsdaten der Büroangestellten und führten anschließend qualitative Interviews. Dabei kamen sie zu dem Ergebnis, dass die Live-Übertragung auf dem Bildschirm eine ähnlich erholsame Wirkung hat wie ein echtes Fenster. Einen größeren physiologischen Erholungseffekt wiesen echte Fenster im Vergleich zu ›virtuellen Fenstern‹ nur dann auf, wenn die Teilnehmenden länger als 30 Sekunden auf das jeweilige ›Fenster‹ blickten.[66]

[35]Zusätzlich untersuchten Friedman et al. die Interessen der indirekten Stakeholder – also der Passant*innen auf dem Platz vor dem Bürogebäude –, indem sie diese zu ihrer Einstellung zu Privatsphäre im öffentlichen Raum allgemein und zur Live-Übertragung ihres Bildes auf die Büro-Bildschirme befragten. Dabei wurde deutlich, dass die Passant*innen die Werte Privatsphäre, informierte Einwilligung und Sicherheit sehr hoch bewerteten. Mit dieser Vielfalt empirischer Methoden untersuchten die Forscher*innen also, welche Werte für die verschiedenen betroffenen Akteur*innen im Kontext der ›Virtuelles Fenster‹-Technologie wichtig sind. Dabei wurde deutlich, dass ein Wertkonflikt vorliegt: Während die Technologie die Werte der direkten Stakeholder steigert – also Gesundheit, Wohlbefinden und Kreativität –, gefährdet sie die Werte der indirekten Stakeholder – Privatsphäre, Sicherheit und informierte Einwilligung.[67]

[36]Wie kann mit einem solchen Wertekonflikt umgegangen werden? In den technischen Investigationen empfehlen die Forscher*innen, Gebäude grundsätzlich mit Fenstern zu bauen, da der Blick auf eine Natur-Szene die Werte der Büroangestellten fördert und durch ›virtuelle Fenster‹ nur teilweise ersetzt werden kann.[68] Um im Falle von Gebäuden, die nun mal bereits ohne Fenster gebaut wurden, dennoch einen positiven Effekt für Büroangestellte durch ›virtuelle Fenster‹ zu erzielen, ohne die Werte von Passant*innen auf dem Platz vor dem Bürogebäude als indirekte Stakeholder zu gefährden, könnte darüber hinaus eine Natur-Szene auf den Bildschirm übertragen werden, in der keine Menschen zu sehen sind.

Abb. 2: Beispiel für eine Natur-Szene,
                                    auf der keine Menschen abgebildet werden. Eignet sich auch für
                                    ein kurzes Experiment: Entspannt Sie der Anblick dieser
                                    Natur-Szene? [Free Fotos 2016]
Abb. 2: Beispiel für eine Natur-Szene, auf der keine Menschen abgebildet werden. Eignet sich auch für ein kurzes Experiment: Entspannt Sie der Anblick dieser Natur-Szene? [Free Fotos 2016]

[37]Das Beispiel macht deutlich, wie die drei Untersuchungsabschnitte des Value-Sensitive-Design-Ansatzes angewendet werden können und, dass das Einbeziehen der indirekten Stakeholder und deren Interessen bedeutsame Implikationen für das Design einer Technologie haben kann. Um noch stärker zu verdeutlichen, wie auf Basis von Value Sensitive Design konkrete Design-Anforderungen für die Gestaltung einer Technologie formuliert werden können, wird im Folgenden ein zweites Beispiel skizziert.

5.2.2 Die Groupware CodeCOOP für den Wissensaustausch in Unternehmen

[38]Die Entwicklung und Umsetzung des Groupware-Systems CodeCOOP begleiteten Miller et al. aus einer Value-Sensitive-Design-Perspektive. Das Groupware-System wurde mit dem Ziel entwickelt, den Austausch von Wissen unter den Mitarbeiter*innen des Software-Unternehmens LEO-R zu fördern. Mitarbeiter*innen sollten Informationen und Code einfach und effizient über die Groupware miteinander teilen können. Zu den Features des Groupware-Systems gehören u. a. Diskussionsforen, eine Volltext-Suche und ein »code repository«[69]. Um zu gewährleisten, dass Mitarbeiter*innen das System nach seiner Einführung tatsächlich nutzen, sollten Wertkonflikte dabei von Anfang an erkannt und gelöst werden.[70]

[39]In einem ersten Schritt untersuchten Miller et al. im Rahmen der konzeptionellen Investigationen, welche Stakeholder von dem Groupware-System betroffen sind. Direkte Stakeholder sind die Mitarbeiter*innen des Software-Unternehmens LEO-R, die direkt mit dem System interagieren.[71] Als indirekte Stakeholder identifizierten Miller et al. Manager*innen und Führungskräfte des Unternehmens. Anschließend untersuchten die Autor*innen der Studie, welche potentiellen Vorteile und Gefahren das Groupware-System für jede Stakeholder-Gruppe mit sich bringt und welche Werte dies betrifft. Auf Basis von Forschungsliteratur zu vergleichbaren Groupware-Systemen und in Zusammenarbeit mit einer Expert*innen-Gruppe aus Unternehmens-Mitarbeiter*innen stellten Miller et al. fest, dass vor allem Reputation, Zusammenarbeit, Privatsphäre, Anonymität, Vertrauen, und »awareness«[72] im Kontext des Systems eine Rolle spielen.[73]

[40]Im zweiten Abschnitt, den empirischen Investigationen, führten Miller et al. eine anonyme Online-Befragung mit den Mitarbeiter*innen des Software-Unternehmens durch. Dabei wurden die Mitarbeiter*innen gefragt, wie sie die Vor- und Nachteile der Groupware und die damit verbundenen Werte einschätzen und gewichten. Darüber hinaus planten Miller et al., Manager*innen und Führungskräfte des Software-Unternehmens zu ihren Interessen und Werten zu befragen; diese sagten ihre Teilnahme an Interviews jedoch aus Zeitgründen ab.[74] Die Autor*innen der Studie bemängeln daher das unzureichende Einbeziehen der indirekten Stakeholder in ihrer Value-Sensitive-Design-Analyse.[75]

[41]In den technischen Investigationen, dem dritten Abschnitt der Value-Sensitive-Design-Analyse, übersetzten Miller et al. die Werte und Interessen der Stakeholder in Design-Anforderungen für die Groupware. Dazu nutzten sie die Methode der Value Dams and Flows. Die Methode sieht vor, technische Funktionen und Policies zu vermeiden, wenn sie von einem Teil der Stakeholder als sehr problematisch bewertet werden. Solche Funktionen und Policies werden als Value Dams bezeichnet. Value Dams werden bereits dann ausgesprochen, wenn ein geringer Anteil der Stakeholder eine bestimmte Funktion oder Policy stark ablehnt. Als Value Flows werden hingegen technische Funktionen und Policies bezeichnet, die ein großer Teil der Stakeholder als wünschenswert beurteilt. Sie werden in die Gestaltung des Systems aufgenommen. Zwischen den Value Dams und Flows können Konflikte entstehen, die systematisch adressiert und gelöst werden müssen.[76]

[42]Für das Groupware-System CodeCOOP legten Miller et al. fest, dass Features, die mehr als die Hälfte der Umfrage-Teilnehmer*innen als deutlichen Vorteil bewerteten, als Value Flows eingeordnet werden. So war mehr als 50% der System-Nutzer*innen wichtig, zu sehen, mit welcher Häufigkeit eigene Inhalte von anderen Mitarbeiter*innen genutzt werden. Ähnlich wichtig war den Nutzer*innen, dass angezeigt wird, wie andere Nutzer*innen einzelne Posts bewerten bzw. ranken. Diese Features definierten Miller et al. daher als Value Flows, die im Design der Groupware umgesetzt werden sollen, um die »awareness«[77] der System-Nutzer*innen zu unterstützen.[78]

[43]Zugleich sahen mehr als 11% der Teilnehmer*innen der Online-Befragung einen deutlichen Eingriff in ihre Privatsphäre, wenn geloggt wird, welche Fragen sie in den Diskussionforen posten und welche Suchanfragen sie stellen. Um die Privatsphäre der System-Nutzer*innen zu schützen, legten Miller et al. das Loggen von Fragen und Suchanfragen als Value Dams fest. Damit entsteht ein Konflikt zwischen der Förderung der »awareness« der Mitarbeiter*innen und dem Schutz ihrer Privatsphäre. Miller et al. formulierten daher die Designanforderung, dass zwar angezeigt wird, wie oft einzelne Inhalte genutzt und wie sie gerankt wurden; dass dabei aber nicht sichtbar ist, wer den Inhalt gesucht, genutzt oder gerankt hat.[79]

[44]Schließlich formulierten Miller et al. auch für die Unternehmens-Policies in Bezug auf das Groupware-System Value Dams und Flows, denn »groupware systems do not exist independent of complex social systems«[80]. So gaben über 70% der Teilnehmer*innen der Online-Befragung an, dass sie es als deutlichen Vorteil ansehen, wenn das Beantworten von Fragen und Beitragen von Code ihre Reputation im Unternehmen stärkt. Zugleich nahmen 13% der Befragten als Gefahr war, dass sich ihre Reputation verschlechtern könnte, wenn sie inkorrekte Antworten oder fehlerhaften Code in der Groupware posten. Diesen Wertkonflikt lösten Miller et al., indem sie empfahlen, dass der Beitrag zum Groupware-System ausschließlich dann in die jährliche Evaluation der Mitarbeiter*innen einfließt, wenn die Bewertung positiv ausfällt.[81]

[45]Das hier vorgestellte Groupware-System wurde zwar im Kontext eines Unternehmens entwickelt; zugleich können Informationssysteme, die den Austausch von Wissen, die Dokumentation von Code und die Zusammenarbeit verschiedener Akteur*innen fördern, auch im Kontext der Digital Humanities eine zentrale Rolle spielen.

6. Value Sensitive Design in Digital-Humanities-Projekten

[46]In den Digital Humanities ist der Ansatz aber bisher nach Kenntnis der Autorin nicht rezipiert worden. Im Folgenden soll daher vorgestellt werden, wie Value Sensitive Design in unterschiedlichen DH-Projekten angewendet werden kann. Für jede Spielart der DH nach Roth und Burghardt werden dazu Anknüpfungspunkte für Value Sensitive Design aufgezeigt.

6.1 Pre-Existing Bias in den Digitized Humanities abmindern

[47]Wie oben bereits ausgeführt, fasst Roth unter Digitized Humanities die Aktivitäten, die digitale Datensätze in den Geistes- und Sozialwissenschaften erstellen, kuratieren und nutzen, indem Texte, Bilder und Multimedia-Artefakte digitalisiert, verarbeitet, verknüpft, verfügbar gemacht und visualisiert werden, beispielsweise in digitalen Archiven.[82] Diese Aktivitäten haben direkte und indirekte Auswirkungen auf verschiedene Interessensgruppen und deren Werte: So zeigen ethische und wissenschaftstheoretische Untersuchungen, »dass bereits im Prozess der Datenformatierung als auch der weiteren Verarbeitung von Daten und der aus ihnen gezogenen Schlussfolgerungen mannigfaltige Wertentscheidungen getroffen werden«.[83]

[48]Direkte Stakeholder von Technologien, die in den Digitized Humanities erstellt und genutzt werden, sind einerseits diejenigen, die an DH-Projekten und -Infrastrukturen mitwirken und diese gestalten, beispielsweise DH-Forscher*innen, Bibliotheksmitarbeiter*innen und IT-Dienstleister*innen. Aber auch die Nutzer*innen von DH-Infrastrukturen sind direkte Stakeholder der Technologien in den Digitized Humanities, indem sie beispielsweise aus wissenschaftlichem oder privaten Interesse die Inhalte nutzen, die digitale Archive und Bibliotheken bereitstellen. Als indirekte Stakeholder der Technologien in den Digitized Humanities können darüber hinaus all jene verstanden werden, die in den Texten, Bildern und Multimedia-Artefakten der DH-Projekte und -Infrastrukturen abgebildet werden – genauso wie jene Gruppen, die in diesen Projekten und Infrastrukturen eben nicht repräsentiert werden. Im Folgenden wird gezeigt, dass die Werte, die in den Digitized Humanities eine Rolle spielen, unter anderem Geschlechtergerechtigkeit, Barrierefreiheit, globale Gerechtigkeit im Sinne von Teilhabe und Freiheit von Diskriminierung[84] umfassen.

[49]Der Value-Sensitive-Design-Ansatz kann in den Digitized Humanities also genutzt werden, um bei der Zusammenstellung digitaler Datensätze und beim Aufbau digitaler Archive und Infrastrukturen die Interessen aller betroffenen Stakeholder zu beachten.[85] Dadurch kann verhindert werden, dass Pre-Existing Bias reproduziert wird – oder sogar dazu beigetragen werden, diesen abzumindern. Zur Verdeutlichung folgen einige Beispiele, wie Value Sensitive Design in Digitized Humanities-Projekten dazu beitragen kann, Diskriminierung auf Basis von kolonialen Machtstrukturen, binären Geschlechtszuschreibungen und körperlichen Fähigkeiten zu lindern.

6.1.1 Gender Bias ausgleichen

[50]Digitale Datensätze, die in den DH erstellt, kuratiert und genutzt werden, entstehen meist auf Basis bereits vorhandener Sammlungen, beispielsweise von Bibliotheken und Archiven. Zentral ist daher für die ethische Gestaltung von Projekten in den Digitized Humanities, zu Beginn zu analysieren, inwiefern die Datenbasis des jeweiligen Projekts einen Bias aufweist.[86] So weisen beispielsweise die Bestände von Archiven meist einen Gender Bias auf. So konstatiert Buettner für die Monacensia im Hildebrandhaus, dem Literaturarchiv der Stadtbibliothek München:

[51]»Mit einem Blick auf die Archivbestände der Monacensia stellen wir fest, dass sich das literarische Gedächtnis bislang einseitig aus Erinnerungen von Männern speist. Das künstlerische Werk von Frauen ist in der Vergangenheit landauf landab als weniger relevant eingeschätzt worden. […] Das literarische Gedächtnis der Stadt München reproduziert so – genau wie viele Museumssammlungen, Theaterspielpläne, Verlags-, Radio- und Ausstellungsprogramm [sic!] – eine unvollständige Wirklichkeit.«[87]

[52]Bei der Erstellung digitaler Datensätze und Archive gilt es also, diesen Pre-Existing Gender Bias so gut wie möglich auszugleichen. Auf Basis von Value Sensitive Design können bei der Erstellung digitaler Datensätze auf Basis von Archiven wie der Monacensia in einem ersten Schritt – den konzeptionellen Überlegungen – die betroffenen Stakeholder und Stakeholder-Gruppen identifiziert werden. Neben den Mitarbeiter*innen des Archivs bzw. des DH-Projekts können auch die Nutzer*innen der Monacensia als direkte Stakeholder begriffen werden. Eine bedeutende Gruppe indirekter Stakeholder sind hingegen Frauen im Allgemeinen und Akteurinnen des literarischen Lebens in München im Besonderen: Sie sind in den Beständen der Monacensia unterrepräsentiert, sodass ihre Werte Teilhabe und Repräsentation gefährdet sind.

[53]In einem zweiten Schritt, den empirischen Investigationen, müsste untersucht werden, welche Werte den verschiedenen Stakeholder-Gruppen in Bezug auf das digitale Archiv tatsächlich wichtig sind. Dazu könnten beispielsweise Akteurinnen des literarischen Lebens in München wie Autorinnen und Literaturwissenschaftlerinnen im Rahmen von qualitativen Interviews befragt werden. Auch die Werte der direkten Stakeholder-Gruppen, also der Mitarbeiter*innen des Archivs bzw. des DH-Projekts und der potentiellen Nutzer*innen des digitalen Archivs müssten im Rahmen empirischer Untersuchungen erhoben werden, sodass potentiell auftretende Wertkonflikte identifiziert werden können.

[54]Wie können die Werte Teilhabe und Repräsentation von Frauen gefördert werden, wenn auf Basis von Archivbeständen mit Gender Bias ein digitaler Datensatz oder ein digitales Archiv erstellt wird? Im Rahmen des dritten Analyseschritts, den technischen Investigationen, werden Strategien entwickelt, um Daten von und über Frauen in ausreichender Quantität und Qualität in den Datensatz bzw. das digitale Archiv aufzunehmen – oder, sollte dies nicht möglich sein, Frauen trotz der strukturellen Unterrepräsentation im Datensatz sichtbar zu machen. Die Monacensia im Hildebrandhaus rief beispielsweise das mehrjährige partizipative Kulturerbeprojekt #femaleheritage ins Leben, »um die literarischen Texte und Dokumente von Frauen ins literarische Gedächtnis ein- bzw. zurückzuschreiben«.[88] Das Projekt zeigt in Blogartikeln und Sonderausstellungen Archivlücken und Forschungsdesiderate zu Frauen in München auf, erstellte ein Online-Dossier mit Dokumentarfilmen und Texten zu jüdischen Schriftstellerinnen und sammelte in einer Blogparade über 200 Beiträge in Podcasts, Blogs und der Wikipedia, in denen Frauen im Kontext von Literatur, Kultur, Politik und Gesellschaft gewürdigt werden.[89]

Abb. 3: Ausschnitt aus einer
                                    Zusammenstellung der knapp 200 Blogartikel, die im Kontext der
                                    #femaleheritage-Blogparade entstanden sind. [Praske
                                        2021]
Abb. 3: Ausschnitt aus einer Zusammenstellung der knapp 200 Blogartikel, die im Kontext der #femaleheritage-Blogparade entstanden sind. [Praske 2021]

[55]Das Beispiel zeigt, dass Value Sensitive Design dazu beitragen kann, Pre-Existing Bias in Archiv- und Datenbeständen zu ermitteln und Strategien zu entwickelt, um diesen Bias in digitalen Datensätzen und Archiven abzumindern.

6.1.2 Digitale Archive postkolonial gestalten

[56]Darüber hinaus können digitale Archive koloniale Machtstrukturen reproduzieren. Das macht Risam am Beispiel der Networked Infrastructure for Nineteenth-Century Electronic Scholarship (NINES) deutlich: Das Projekt dient der Vernetzung von DH-Projekten zum 19. Jahrhundert in den USA und Großbritannien, indem es über 900.000[90] Projekte, Publikationen und digitale Sammlungen zusammenstellt, zentral durchsuchbar macht und Qualitätssicherung durch Peer Review anbietet. NINES ist damit eine bedeutende Infrastruktur in den Digital Humanities. Die Autor*innen, die in NINES zu finden sind, sind allerdings eine »narrowly prescribed group of primarily white writers«[91]. Texte Schwarzer und indigener Autor*innen sind hingegen stark unterrepräsentiert. Zudem sind englischsprachige Texte, die im 19. Jahrhundert in den von Großbritannien kolonialisierten Gebieten entstanden sind, nicht zu finden. Thematisiert wird dieser Mangel auf der Projektseite nicht.[92] NINES schreibt damit »colonial dynamics of knowledge production«[93] fort, durch die »colonial violence«[94] in der Digital-Humanities-Forschung reproduziert wird.

[57]Risam fordert daher, digitale Archive postkolonial zu gestalten und koloniale Formen der Wissensproduktion zu überwinden. Dafür kann Value Sensitive Design als Ausgangspunkt dienen: So sieht der Ansatz vor, bei der Identifikation der Stakeholder – also derjenigen, die direkt oder indirekt von einer Technologie betroffen sind – besonders Individuen und Gruppen zu berücksichtigen, die von Diskriminierung betroffen sind. Personen, die von rassistischer und (neo-)kolonialer Diskriminierung betroffen sind, können somit als Stakeholder von DH-Projekten wie NINES identifiziert werden: Als Gruppe, die in den Inhalten der Infrastruktur NINES unterrepräsentiert ist, sind sie indirekte Stakeholder. Als Mitarbeiter*innen oder Nutzer*innen von DH-Projekten wie NINES können sie zugleich aber auch direkte Stakeholder sein. Mit Value Sensitive Design kann im Rahmen der konzeptionellen und empirischen Untersuchungen zunächst geklärt werden, welche verschiedenen Stakeholder-Gruppen konkret von der DH-Infrastruktur betroffen sind, welche Werte die unterschiedlichen Stakeholdergruppen als wichtig erachten und welche Wertkonflikte dabei entstehen. Auf Basis dieser Analysen können die Werte von Stakeholder-Gruppen, die von rassistischer und (neo-)kolonialer Diskriminierung betroffen sind, aktiv in das Design von digitalen Archiven und Infrastrukturen einbezogen werden.

6.1.3 Barrierefreiheit fördern

[58]Schließlich kann auf Basis des Value-Sensitive-Design-Ansatzes auch sichergestellt werden, dass digitale Archive und Infrastrukturen möglichst barrierefrei sind. Ein bedeutender Aspekt ist dabei die Gestaltung der Benutzeroberfläche: Diese sollte nach den Prinzipien der Web Accessibility so gestaltet sein, dass auch Personen mit visuellen, auditiven und physischen Einschränkungen das Online-Angebot nutzen können (ausführlicher hierzu Kapitel 6.4). Aber auch finanzielle Aspekte spielen für die barrierearme Nutzung von und die Beteiligung an digitalen Archiven und Infrastrukturen eine Rolle: So macht Rojas Castro darauf aufmerksam, dass Institutionen mit geringen finanziellen Ressourcen keine eigenen Digitalisate zu digitalen Infrastrukturen beitragen können, wenn sie ihre Dokumente dafür zwingend mit einem kostenpflichtigen Persistenten Identifikator wie DOI oder Handle versehen müssen. Dies führt wiederum zu weiteren Verzerrungen: Wenn beispielsweise ressourcenarme Institutionen im globalen Süden eigene Digitalisate in zentralen DH-Infrastrukturen aus finanziellen Gründen nicht beitragen können, entsteht ein regionaler Bias.[95]

[59]Auf Basis von Value Sensitive Design können Personen mit verschiedenen physischen Einschränkungen genauso wie Institutionen mit geringen finanziellen Ressourcen als Stakeholder von digitalen Archiven und Infrastrukturen in den Fokus genommen werden. Im Rahmen empirischer Untersuchungen kann erhoben werden, welche Interessen und Werte diese Stakeholder-Gruppen haben – beispielsweise Barrierefreiheit, Freiheit von Bias, Teilhabe und (Informations-)Gerechtigkeit – und an welchen Stellen diese möglicherweise mit den Interessen weiterer Stakeholder-Gruppen in Konflikt geraten. Darauf aufbauend können im Rahmen der technischen Investigationen Strategien entwickelt werden, um die Benutzeroberflächen und Policies der DH-Projekte so zu gestalten, dass sie auch die Interessen von Personen mit verschiedenen physischen Einschränkungen genauso wie von Institutionen mit geringen finanziellen Ressourcen berücksichtigen.

6.2 Design-Normen für KI-Anwendungen in den Numerical Humanities

[60]Anders als die Digitized Humanities legt die Spielart der Numerical Humanities den Schwerpunkt darauf, formale Modelle zu erstellen und menschliches Verhalten mathematisch zu abstrahieren. Hier kommen vor allem KI-Anwendungen wie Machine Learning Software zum Einsatz. Machine Learning Software zeichnet sich dadurch aus, dass sie sich autonom und adaptiv weiterentwickelt, indem sie mit ihrem Umfeld interagiert. Machine Learning Systeme können daher aus verschiedenen Gründen Bias enthalten: Wenn die Trainingsdaten biased sind, wird dieser Bias unweigerlich in die Machine Learning Software übertragen. Beispiel hierfür ist die eingangs erwähnte Gesichtserkennungssoftware, die bei Schwarzen Personen eine deutlich höhere Rate an falsch positiven Treffern aufweist als bei weißen Personen – weil die Trainingsdaten vorrangig Bilder weißer Personen enthielten. Mithilfe des Value-Sensitive-Design-Ansatzes kann also sichergestellt werden, dass der Datensatz, auf dessen Basis eine Machine Learning Software lernt, keinen Bias aufweist (vgl. auch Kapitel 6.1).

[61]Machine Learning Systeme können aber auch bei unverzerrten Trainingsdaten einen Algorithmus hervorbringen, der »might conceivably be described as following a rule that is somehow biased«.[96] Diese Form von Bias ist »emergent und opaque«,[97] er ist also nicht vorhersehbar und für Menschen schwer zu erkennen. Eine ethische Überprüfung von Machine Learning Technologien bringt daher besondere Herausforderungen mit sich. Umbrello und van de Poel schlagen vor, das Value-Sensitive-Design-Framework für KI-Anwendungen weiterzuentwickeln und um ein »set of AI-specific design principles«[98] zu ergänzen. Drei Aspekte sind dabei zentral:

[62]1) Als Design-Vorgaben, die für alle KI-Anwendungen gelten, schlagen Umbrello und van de Poel die AI for Social Good-Prinzipien (AI4SG) vor. Diese spezifizieren die Prinzipien der EU High Level Expert Group on AI und übertragen sie in sieben konkrete Anforderungen für das Design von KI-Anwendungen:

  • Die Anwendung wird kontinuierlich und zunächst in kleineren Szenarien empirisch getestet;
  • die Designer*innen sichern die Anwendung gegen die Manipulation der Datenbasis und die übermäßige Abhängigkeit von einzelnen Variablen ab;
  • die Nutzer*innen-Autonomie wird gestärkt, indem die User*innen verschieden Auswahlmöglichkeiten bekommen;
  • die Anwendung ist transparent und wird angepasst an die jeweilige Nutzer*innen-Gruppe erklärt;
  • die Privatsphäre von »data subjects«[99] wird geschützt;
  • die Datenbasis, mit der die Anwendung lernt, muss frei von Bias sein, v. a. bezüglich Kategorien wie Race, Gender und Altersklassen und
  • die Zuschreibung von Bedeutung darf nicht willkürlich erfolgen und nicht zu eng gefasst werden.[100]

[63]2) Die AI4SG-Prinzipien zielen jedoch vorrangig darauf ab, KI-Anwendungen so zu gestalten, dass sie keinen Schaden hervorrufen. Der Value-Sensitive-Design-Ansatz sieht darüber hinaus aber auch vor, gesellschaftlich erwünschte Werte und Ziele aktiv zu fördern sowie die Werte aller beteiligten Stakeholder zu berücksichtigen. Umbrello und van de Poel schlagen daher vor, zwischen »values promoted by design and values respected by design«[101] zu unterscheiden. Welche Werte gesellschaftlich erwünscht sind und von KI-Technologien gefördert werden sollen, kann beispielsweise anhand der Sustainable Development Goals (SDG) der UN abgeleitet werden, die von den Vereinten Nationen erarbeitet und ihren 193 Mitgliedsstaaten verabschiedet wurden.[102] Zu den Zielen, die in den SDG festgehalten sind, gehören u. a. Geschlechtergerechtigkeit, die Bekämpfung von Armut und der Zugang zu Bildung.[103]

[64]3) Schließlich schlagen die Autoren vor, dass die Value-Sensitive-Design-Analyse den gesamten Lebenszyklus einer KI-Anwendung begleitet. Sollten im Lauf der Anwendungszeit einer Technologie Problematiken und Wertverletzungen auftauchen, kann sie so entsprechend angepasst werden. Die Erweiterung des Value-Sensitive-Design-Frameworks sieht daher vor, über den gesamten Lebenszyklus hinweg Prototypen der KI-Anwendung zu erstellen und diese im jeweiligen Anwendungsfeld zu testen. Dabei werden nicht nur die technischen Funktionen geprüft, sondern auch die Auswirkungen der KI-Anwendung auf Werte und Gesellschaft. Diese Tests sollten mit der Anwendung in kleinem Rahmen beginnen und dann sukzessive den Bezugsrahmen ausweiten.[104]

[65]Umbrello und van de Poel illustrieren den Ablauf einer Value-Sensitive-Design-Analyse von KI-Anwendungen am Beispiel der Corona-Datenspende-App, die im April 2020 vom Robert-Koch-Institut (RKI) vorgestellt wurde. Über die App können Bürger*innen mit Fitnessarmbändern und Smartwatches dem RKI ihre Gesundheitsdaten zur Verfügung stellen, um die Ausbreitung des COVID-19-Virus nachvollziehbar zu machen. In drei Schritten analysieren Umbrello und van de Poel die Werte, die bei der Entwicklung und dem Einsatz der Corona Datenspende-App eine Rolle spielen:

  • Als gesellschaftlich erwünschten Wert, den die Anwendung fördert (»Values promoted by design«[105]) identifizieren sie öffentliche Gesundheit. Dieser Wert lässt sich dem dritten SDG, Gesundheit und Wohlbefinden, zuordnen.
  • Darüber hinaus analysieren die Autoren, welche »values respected by design«, also Design-Vorgaben, die für alle KI-Anwendungen gelten, im Kontext der Corona-Datenspende-App besondere Bedeutung einnehmen. So spielt zum Beispiel die Verhinderung von Schaden (»Nonmaleficence«[106]) eine hervorgehobene Rolle, vor allem in Bezug auf Datensicherheit und Privatsphäre. Aber auch Erklärbarkeit und Autonomie sind Werte, die beim Design der App beachtet werden müssen, d. h. es muss eine »balance between human decision-making power and its abdication to AI systems«[107] gewährleistet werden, die Funktionsweise der App und des KI-Systems müssen verständlich sein und mindestens eine Person muss für die Funktionsweise verantwortlich zeichnen.
  • Schließlich analysieren Umbrello und van de Poel, welche Interessen und Werte die Stakeholder der Corona-Datenspende-App haben. Dabei nehmen sie die Nutzer*innen der App als direkte Stakeholder in den Fokus. So ist beispielsweise Freiwilligkeit entscheidend, also dass das Nutzen der App nicht verpflichtend ist. Damit einher geht der Wert Fairness, der gewährleistet, dass niemand stigmatisiert oder diskriminiert wird, der*die die App nicht nutzt. Zudem könnte das Tracing der Nutzer*innen über die App eine Gefahr für die Versammlungfreiheit darstellen, was die Autonomie der Nutzer*innen und die »Nonmaleficence« der KI-Anwendung gefährdet. Auch der Wert Gesundheit ist aus Nutzer*innen-Perspektive von besonderer Bedeutung: Wenn die App zu einem falschen Sicherheitsgefühl führt, könnten Nutzer*innen Gesundheitsrisiken eingehen.[108]

[66]Anschließend zeigen Umbrello und van de Poel beispielhaft, wie die verschiedenen identifizierten Werte in Design-Anforderungen übersetzt werden können. Um den Wert Verhinderung von Schaden (»Nonmaleficence«[109]) zu unterstützen, müssen bei der Gestaltung der App vor allem der Schutz der Privatsphäre und informierte Einwilligung beachtet werden. Daraus ergibt sich erstens die Anforderung, dass die Nutzungsbedingungen der App verständlich formuliert werden müssen, und zweitens, dass die erhobenen Daten pseudonymisiert, lokal gespeichert und nach einem bestimmten Zeitraum wieder gelöscht werden müssen. Um den Wert der Erklärbarkeit zu unterstützen, muss für Nutzer*innen zudem transparent gemacht werden, welche Daten und Datensets gesammelt und erstellt werden, wie diese verwendet, gespeichert und gelöscht werden.[110] Abschließend empfehlen die Autoren die Erstellung eines Prototyps der Corona-Datenspende-App. Dieser soll zunächst mit einer limitierten Anzahl an Nutzer*innen getestet werden. Dabei sollen nicht nur die technischen Funktionen, sondern auch mögliche Auswirkungen auf das Verhalten der Nutzer*innen, die Gesellschaft und die Werte der betroffenen Stakeholder überprüft und das Design der App gegebenenfalls nachgebessert werden.[111]

[67]Das erweiterte Framework von Value Sensitive Design für KI-Anwendungen kann auch in den Numerical Humanities genutzt werden, um selbstlernende Systeme wertebasiert zu gestalten oder bereits existierende KI-Anwendungen ethisch zu überprüfen. Zentral sind dabei neben den Werten der betroffenen Stakeholder auch die »values promoted by design and values respected by design«[112], also einerseits die in den Sustainable Development Goals formulierten Werte und Ziele und andererseits die Werte, die den AI for Social Good-Prinzipien (AI4SG) zugrunde liegen, also Freiheit von Bias, Autonomie, Privatsphäre und Transparenz.

6.3 Akteur*innen und ihre Interessen in den Humanities of the Digital analysieren

[68]Als dritte Spielart der Digital Humanities beschreibt Roth die Humanities of the Digital: Die geisteswissenschaftliche Forschung zu »computermediated interactions and societies«,[113] also zu soziotechnischen Systemen wie Online-Communities, Blogs, Sozialen-Netzwerk-Seiten und Gaming-Plattformen. Hier geht es also weniger darum, Technologien zu entwickeln und anzuwenden, sondern diese als Untersuchungsgegenstände in den Blick zu nehmen. Geschlechtergerechtigkeit sowie globale Gerechtigkeit im Sinne von Teilhabe und Freiheit von Diskriminierung seien hier nur beispielhaft als Werte genannt, die dabei fokussiert werden können.

[69]Value Sensitive Design kann dabei als theoretischer Ausgangspunkt dienen, um Online-Communities, Soziale-Netzwerk-Seiten und Gaming-Plattformen aus einer ethischen Perspektive zu untersuchen und sich unterschiedlichen Fragestellungen zu nähern: Welche direkten und indirekten Stakeholder hat eine Soziale-Netzwerk-Seite wie Instagram, eine Online-Community wie Wikipedia oder eine Gaming-Plattform wie Steam? Welche Werte und wessen Interessen werden von den Nutzungsbedingungen, Policies und dem technischen Design gefördert bzw. behindert? Wie könnte die jeweilige Plattform oder Community gestaltet sein, um die Werte und Interessen aller Stakeholder zu beachten?

[70]Dass Online-Communities, Soziale-Netzwerk-Seiten und Gaming-Plattformen die Interessen und Werte verschiedener Stakeholder in unterschiedlichem Maß fördern oder behindern, wird anhand von Beispielen deutlich. So weist die Community-betriebene Online-Datenbank Wikidata einen Gender Bias auf: Von den 8,2 Millionen Personen, die Wikidata verzeichnet, sind nur 23 Prozent Frauen.[114] Die mit Wikidata verknüpfte Enzyklopädie Wikipedia enthält zudem einen »Eurocentric bias«,[115] da historische Artikel in mehreren Sprachversionen der Wikipedia vor allem die Geschichte europäischer Länder thematisieren.[116] Die Nutzungsbedingungen der Sozialen-Netzwerk-Seite Facebook erlauben Bilder nackter Oberkörper, die als männlich gelesen werden, verbieten aber Bilder nackter Oberkörper, die als weiblich gelesen werden. West beschreibt dies als »gendered policies on images of female nudity«[117]. Eine umfassende ethische Analyse der jeweiligen Communities und Sozialen-Netzwerk-Seiten, in der alle direkten und indirekten Stakeholder und ihre Werte berücksichtigt werden, steht jedoch noch aus.

[71]Wie könnte die Analyse einer Online-Community wie Wikipedia anhand von Value Sensitive Design beispielsweise aussehen? Im Rahmen der konzeptionellen Untersuchungen werden zunächst der Kontext der Online-Community beschrieben und die betroffenen Stakeholder ausgemacht. Die Online-Enzyklopädie Wikipedia zeichnet sich dadurch aus, dass sie alle Inhalte kostenfrei zur Verfügung stellt und es allen Nutzer*innen ermöglicht, die Inhalte des Lexikons zu bearbeiten.[118] Direkte Stakeholder sind dabei diejenigen, die selbst redaktionell an der Wikipedia mitarbeiten, genauso wie alle, die Inhalte der Online-Enzyklopädie rezipieren. Auch die Wikimedia Foundation, die als Non-Profit-Organisation die Wikipedia trägt und finanziert,[119] kann als direkter Stakeholder verstanden werden. Indirekte Stakeholder sind aber auch Individuen und Gruppen, die in den Artikeln und Inhalten der Wikipedia abgebildet werden, genau wie jene, die nicht repräsentiert werden. Welche Werte diese unterschiedlichen Stakeholder-Gruppen priorisieren und wo potentiell Wertkonflikte auftreten, muss im Rahmen von empirischen Investigationen untersucht werden, beispielsweise in Online-Befragungen oder qualitativen Interviews. Im dritten Schritt der Analyse, den technischen Investigationen, wird analysiert, welche technischen Features und organisatorischen Strukturen der Online-Community Wikipedia die Interessen und Werte der verschiedenen Stakeholder-Gruppen fördern oder behindern. Eine Value-Sensitive-Design-Analyse ermöglicht damit ein Verständnis von Problematiken wie dem Eurocentric oder Gender Bias in der Online-Community Wikipedia, das neben verschiedenen Stakeholder-Interessen auch technische und organisatorische Aspekte einbezieht.

6.4 Mehr Barrierefreiheit in den Public Humanities schaffen

[72]Den drei von Roth beschriebenen Teilbereichen der Digital Humanities fügt Burghardt eine vierte Spielart hinzu: Die Public Humanities, also die Themenfelder des digitalen Publizierens, der Wissenschaftskommunikation und des E-Learnings. Auch hier gilt es, die Interessen unterschiedlicher Stakeholder zu berücksichtigen, um Bias und Diskriminierung zu vermeiden. Auf Basis von Value Sensitive Design kann beispielsweise sichergestellt werden, dass digitale Publikationen und E-Learning-Angebote möglichst barrierefrei gestaltet werden. Barrierefreiheit bezieht sich dabei auf Barrieren physischer Art, aber auch finanzieller und sprachlicher Art. Damit spielen in den Public Humanities neben Barrierefreiheit auch die in der Informationsethik zentralen Werte Informationsfreiheit und Informationsgerechtigkeit eine Rolle.[120]

[73]Genau wie in den Digitized Humanities sollten Benutzeroberflächen und Formate von digitalen Publikationen und E-Learning-Angeboten nach den Prinzipien der Web Accessibility gestaltet sein, sodass sie von Personen mit auditiven, visuellen, körperlichen, kognitiven und sprachlichen Einschränkungen genutzt werden können. Orientierung bieten dafür die Standards und Empfehlungen der W3C Web Accessibility Initiative,[121] die beispielsweise vorsehen, Bilder mit einem Alternativtext zu versehen, Audio-Inhalte und Videos mit Transkriptionen bzw. Untertiteln auszustatten und die Navigation auf Websites per Tastatur zu ermöglichen. Stakeholder, deren Interessen damit verfolgt werden, sind dabei neben Menschen mit Behinderung auch weitere Gruppen: Personen, deren Fähigkeiten sich altersbedingt verändern; Nutzer*innen, die über eine langsame Internetverbindung verfügen; und Personen, die sich in limitierenden Situationen befinden, beispielsweise in einer Umgebung, in der sie Audio-Inhalte nicht anhören können oder hellem Sonnenlicht ausgesetzt sind. Die W3C Web Accessibility Initiative empfiehlt, Aspekte der Barrierefreiheit bereits zu Beginn eines Projektes zu bedenken, um zu vermeiden, Designs und Inhalte noch einmal neu gestalten zu müssen.[122]

[74]Neben Empfehlungen für die Gestaltung und Entwicklung von Websites und Online-Publikationen weist die W3C Web Accessibility Initiative auch darauf hin, dass Texte klar, prägnant und in verständlicher Sprache formuliert werden sollen.[123] Auch Sprache kann also eine Barriere sein, die es Stakeholdern schwierig bis unmöglich macht, eine Ressource zu nutzen. Dabei spielen nicht nur die Verständlichkeit von Texten, sondern auch Fremdsprachenkenntnisse eine Rolle. Ein Beispiel: Die Website The Programming Historian publiziert Tutorials, »that help humanists learn a wide range of digital tools, techniques, and workflows«[124]. Die englischsprachige Version der Website ist im Directory of Open Access Journals (DOAJ) verzeichnet. Das DOAJ lehnte es zunächst jedoch ab, auch die spanisch- und französischsprachigen Versionen der Tutorials in ihr Verzeichnis aufzunehmen, da diese als nicht »original enough«[125] angesehen wurden. Für Personen, die über geringe Englischkenntnisse verfügen und daher gezielt nach französisch- oder spanischsprachigen Ressourcen suchen, waren die entsprechenden Tutorials von The Programming Historian über das DOAJ damit nicht auffindbar. Seit April 2021 verzeichnet das DOAJ aber alle drei Sprachversionen der Website und trägt damit zur barrierefreien Auffindbarkeit der Tutorials von The Programming Historian für Personen ohne oder mit geringen Englischkenntnissen bei.[126]

[75]Schließlich können auch finanzielle Aspekte ausschlaggebend dafür sein, dass digitale Publikationen oder E-Learning-Ressourcen von bestimmten Individuen oder Gruppen nicht genutzt werden können. Der Zugang zu wissenschaftlichen Zeitschriften, Monographien und Sammelbänden ist sowohl für Einzelpersonen als auch für Institutionen in der Regel mit Kosten verbunden – mit Ausnahme von Publikationen, die Open Access zur Verfügung gestellt werden. Aber auch hier können finanzielle Barrieren entstehen, und zwar für die Autor*innen, die eigene Beiträge veröffentlichen wollen: Sogenannte Gold-Open-Access-Zeitschriften, die ihre Beiträge direkt bei der Veröffentlichung für Leser*innen kostenfrei zur Verfügung stellen, erheben teilweise Article Processing Charges (APCs) – also Gebühren, die Autor*innen für die Veröffentlichung ihres Beitrages entrichten müssen.[127] Für Wissenschaftler*innen, die an weniger ressourcenstarken Institutionen affiliiert sind, hat dies zur Folge, dass sie ihre Beiträge nur in einem Teil der entsprechenden Journals publizieren können, die in ihrem jeweiligen Fachbereich eine Rolle spielen – nämlich denjenigen ohne APCs. Damit sind ihre Möglichkeiten, am wissenschaftlichen Diskurs teilzunehmen, eingeschränkt.

[76]Wie also können digitale Publikationen auf Basis von Value Sensitiv Design wertebasiert gestaltet werden? Zunächst wird im Rahmen der konzeptionellen Überlegungen untersucht, welche Stakeholdergruppen im Kontext digitaler Publikationen eine Rolle spielen. Zu den direkten Stakeholdern gehören neben den Autor*innen und Leser*innen wissenschaftlicher Texte auch die Organisationen, die digitale Publikationen bereitstellen, und ihre Mitarbeiter*innen. Diese Stakeholder-Gruppen müssen in weitere Untergruppen ausdifferenziert werden, deren Interessen bei der Gestaltung von digitalen Publikationen und ihren Policies besonderer Berücksichtigung bedürfen. Zu Stakeholdergruppen mit spezifischen Interessen gehören beispielsweise Wissenschaftler*innen, die an ressourcenarmen Institutionen affiliiert sind, aber auch Personen mit geringen Englischkenntnissen und Nutzer*innen, die über eine langsame Internetverbindung verfügen sowie Menschen mit auditiven, visuellen oder körperlichen Einschränkungen.

[77]In einem zweiten Schritt, den empirischen Untersuchungen, muss erhoben werden, welche Interessen und Werte die verschiedenen Stakeholder-Gruppen als wichtig bewerten, beispielsweise im Rahmen von Interviews oder Online-Befragungen. Vor allem in Bezug auf Open Access ist dabei wahrscheinlich, dass Werte wie Informationsfreiheit und Informationsgerechtigkeit, die Autor*innen und Leser*innen wichtig sind, in Konflikt mit den wirtschaftlichen Interessen der Organisationen stehen, die digitale Publikationen bereitstellen, vor allem wenn diese in privatwirtschaftlichen Strukturen organisiert sind.[128] Dieser Interessenskonflikt kann zugunsten der Autor*innen, Leser*innen und Wissenschaftler*innen, die an ressourcenarmen Institutionen affiliiert sind, gelöst werden, indem Fachcommunities eigene Publikationsorgane anbieten, die nicht privatwirtschaftlich, sondern community-basiert organisiert sind. Ein Beispiel ist die Zeitschrift für digitale Geisteswissenschaften (ZfdG), die vom Forschungsverbund Marbach Weimar Wolfenbüttel und dem DHd-Verband (Digital Humanities im deutschsprachigen Raum) herausgegeben wird: [129] Alle Artikel der Zeitschrift erscheinen Open Access, ohne dass Autor*innen für die Veröffentlichung ihrer Texte Gebühren entrichten müssen. [130]

[78]Um darüber hinaus auch die Interessen von Stakeholder-Gruppen wie Personen mit geringen Englischkenntnissen, Nutzer*innen, die über eine langsame Internetverbindung verfügen und Menschen mit auditiven, visuellen oder körperlichen Einschränkungen in das Design von digitalen Publikationen einzubeziehen, sind weitere empirische und technische Investigationen nötig, die hier nicht ausgeführt werden können. Deutlich wurde aber, dass der Value-Sensitive-Design-Ansatz auch in den Public Humanities dazu beitragen kann die Policies und das technische Design von digitalen Publikationen und E-Learning-Ressourcen so zu gestalten, dass Barrieren finanzieller, sprachlicher und physischer Art abgebaut werden, indem die Interessen und Werte unterschiedlicher Stakeholder berücksichtigt werden.

6.5 Menschenrechte und Umweltschutz in allen DH-Spielarten fördern

[79]In den bisherigen Abschnitten wurde gezeigt, wie Value Sensitive Design in den vier von Roth und Burghardt benannten Spielarten der DH angewendet werden kann, um Bias und Diskriminierung zu vermeiden. Abschließend soll hier auf eine Problematik eingegangen werden, die alle DH-Projekte unabhängig von ihrer Spielart aufwerfen. Noble ruft Akteur*innen in den DH dazu auf, sich die »materiality of the digital humanities and its impact in the world«[131] stärker bewusst zu machen. So führt der Abbau von Mineralien, die für die Herstellung digitaler Technologien benötigt werden, in Regionen des globalen Südens zu Konflikten und Ausbeutung, während Nutzer*innen im globalen Norden die Profiteur*innen dieser Technologien sind. Zudem entstehen sowohl bei der Produktion, als auch bei der meist unsachgemäßen Entsorgung von Hardware Umweltschäden. Noble fordert daher: Die DH-Community sollte nicht nur reflektieren, wie sie zu einer gerechteren Verteilung von IT-Infrastrukturen weltweit beitragen kann, sondern auch »design against – or outright resist – the exploitive forms of labor and hazardous environmental practices in which information and communication technologies are implicated«[132]. Auch das Manifest Digital Humanities and the Climate Crisis, das im Sommer 2021 von einem internationalen Zusammenschluss DH-Forschender veröffentlicht wurde, ruft Akteur*innen in den DH dazu auf, die ökologischen und sozialen Auswirkungen ihres Handelns zu prüfen.[133]

[80]Auch hier kann Value Sensitive Design als Ausgangspunkt dienen, um Werte wie Umweltschutz und ökologische Nachhaltigkeit, globale Gerechtigkeit und Gesundheit beim Design von Projekten und Technologien in den DH mitzudenken. So können die Personen, die am Herstellungsprozess von Hardware und IT-Technologien beteiligt sind, genauso als indirekte Stakeholder eines jeden DH-Projektes begriffen werden wie diejenigen, die von den Umweltschäden durch unsachgemäße Hardware-Entsorgung betroffen sind. Wie können die Werte und Interessen dieser Stakeholder also im Design berücksichtigt werden? Dies gilt es, mit empirischen Untersuchungen und technischen Investigationen zu erforschen. Hier zwei Ideen: DH-Projekte könnten sich grundsätzlich zum Ziel setzen, Software und Infrastrukturen so zu entwickeln, dass sie möglichst wenig (Hardware-)Ressourcen in Anspruch nehmen, wie es zum Beispiel die 2014 gegründete Arbeitsgruppe Minimal Computing der Global Outlook DH propagiert.[134] Bei der Beschaffung von Hardware sollte zudem darauf geachtet werden, dass diese sozial- und umweltverträglich hergestellt wurde. Orientierung bieten dabei Label wie TCO Certified für soziale Kriterien oder der Blaue Engel, das EU-Ecolabel und das Nordic Ecolabel für ökologische Aspekte.[135] Wie öffentliche Einrichtungen soziale und ökologische Kriterien in Vergabeverfahren verankern können, verdeutlichen u. a. die Fachkonferenzen für sozial verantwortliche IT-Beschaffung und die Nichtregierungsorganisation Electronics Watch auf ihren Websites.[136] Darüber hinaus könnten Menschenrechts- und Umweltschutz-Aspekte nicht nur bei der Beschaffung von Hardware, sondern auch bei der Organisation von Konferenzen und Dienstreisen im Rahmen von DH-Projekten handlungsleitend sein, beispielsweise indem bei Tagungen fair gehandelte und ökologisch erzeugte Verpflegung angeboten und auf Flugreisen so weit wie möglich verzichtet wird.

7. Zusammenfassung, Limitationen und Ausblick

[81]Dieser Beitrag zeigt auf, dass Technologien nicht neutral sind, sondern immer bestimmte Werte fördern oder behindern. Zugleich werden in jedem Digital-Humanities-Projekt Technologien angewendet oder entwickelt. Um zu verhindern, dass diese Technologien Bias reproduzieren oder hervorbringen, schlägt dieser Beitrag die Anwendung von Value Sensitive Design vor: Dieses theoretische und methodische Framework bietet eine dreiteilige Vorgehensweise, um die Werte aller betroffenen Stakeholder einer Technologie im gesamten Design-Prozess zu berücksichtigen. Anhand der vier von Roth und Burghardt geprägten Spielarten von DH wurden verschiedene Anknüpfungspunkte und Anwendungsbeispiele aufgezeigt, wie Value Sensitive Design in DH-Projekten gewinnbringend eingesetzt werden kann.

[82]Dabei unterliegen sowohl dieser Beitrag, als auch der Value-Sensitive-Design-Ansatz verschiedenen Limitationen. So können Technologien, Datensätze und Forschungsprojekte auch Verzerrungen aufweisen, die keine systematische und unfaire Diskriminierung hervorrufen. Solche Verzerrungen werden zwar nicht als Bias im Sinne von Nissenbaum und Friedman verstanden,[137] sind aber trotzdem problematisch, da sie zu verzerrten Forschungsergebnissen führen. Um diese Art von Bias zu verhindern, ist Value Sensitive Design weniger geeignet; mögliche Strategien zur Vermeidung solcher Verzerrungen sind vielmehr Methodenvielfalt, Triangulation und unterschiedliche experimentelle Settings.

[83]Darüber hinaus ließen sich sicherlich noch weitere Aspekte und Beispiele finden, wie Value Sensitive Design in DH-Projekten genutzt werden kann. Gleichermaßen gibt es wie in Kapitel 4 beschrieben neben Value Sensitive Design weitere Methoden und Frameworks, die die ethische Gestaltung von Projekten und Technologien unterstützen, wie Embedded Ethics oder Partizipatives Design. In beiden Ansätzen hängt die ethische Bewertung und Gestaltung aber stärker von wenigen, ausgewählten Akteur*innen ab: im Falle von Embedded Ethics von den Werten und Perspektiven der Ethiker*innen im jeweiligen Projekt; bei Partizipativem Design von den Werten und Perspektiven ausgewählter Nutzer*innen. Aus meiner Sicht hat Value Sensitive Design demgegenüber den entscheidenden Vorteil, die Perspektiven, Werte und Ziele verschiedener direkt und indirekt beteiligter Akteur*innen einzubeziehen und diese systematisch zu analysieren. Dieser Beitrag erhebt aber keinerlei Anspruch auf Vollständigkeit möglicher ethischer Ansätze, sondern zeigt Ideen und Anregungen auf, wie DH-Projekte in der Praxis ethisch überprüft und wertebasiert gestaltet werden können. Eine Diskussion und Ergänzung der hier vorgestellten Aspekte sind daher wünschenswert.

[84]Um ein DH-Projekt auf Basis von Value Sensitive Design zu gestalten, sind je nach Projekt und Kontext zusätzliche zeitliche, finanzielle und personelle Ressourcen notwendig. Diese müssen bei der Planung von Projekten und der Beantragung von Mitteln eingeplant werden. Darüber hinaus muss entweder innerhalb des Projektes oder an zentraler Stelle Expertise zur theoretischen und praktischen Umsetzung von Value Sensitive Design vorhanden sein. Drei Ideen, um dies für jedes DH-Projekt zu gewährleisten: In den Curricula von DH-Studiengängen könnten Technik- und Informationsethik sowie konkrete methodische Ansätze wie Value Sensitive Design verpflichtend verankert werden, sodass möglichst viele zukünftige Akteur*innen in den DH die Grundlagen wertebasierten Projekt- und Technologie-Designs kennen. Auch die Idee der Data Stewards, also von Expert*innen, die Forschende beim Management von Forschungsdaten unterstützen,[138] kann als Anregung dienen: So sind parallel dazu Value Stewards oder Ethic Stewards denkbar, die DH-Forschende bei der ethischen Überprüfung und wertebasierten Gestaltung ihrer Projekte und Technologien beraten. Ähnlich wie in den Bereichen Forschungsdatenmanagement oder Open Access könnten auch Forschungsförderinstitutionen eine entscheidende Rolle einnehmen: In ihren Förderrichtlinien könnten sie von Forscher*innen fordern, eine Strategie zu entwickeln, um ihr Projekt ethisch zu reflektieren und zu gestalten – und diese Strategie bereits in ihrem Förderantrag zu skizzieren.

[85]Darüber hinaus ist es auch mithilfe von Value Sensitive Design nicht möglich, Bias vollständig auszuschließen. Wie genau eine Value-Sensitive-Design-Analyse durchgeführt wird, welche Stakeholder einbezogen, welche empirischen Erhebungen durchgeführt und wie darauf aufbauend das technische Design und Policies konkret umgesetzt werden, unterscheidet sich mit großer Wahrscheinlichkeit von Forscher*in zu Forscher*in: Eigene Werte, Erfahrungen und Interessen fließen immer bewusst oder unbewusst in die Anwendung des Value-Sensitive-Design-Frameworks ein. Dies ist nicht nur unvermeidlich, sondern auch in Ordnung: Friedman und Hendry resümieren, »we need not require perfection, but commitment to practice – and through practice, progress«.[139] Value Sensitive Design garantiert also keine ›ethisch perfekten‹ Technologien – aber das Framework bietet Unterstützung dabei, Bias so gut wie möglich zu vermeiden und die Auswirkungen von Technologien auf die Gesellschaft zu bedenken, offenzulegen und zu diskutieren. Zudem ermöglicht Value Sensitive Design, Technologien nicht nur nach klassischen Kriterien wie Effektivität oder Robustheit zu bewerten – sondern auch nach den Werten, die sie fördern. Das ist ein guter Start, um Technologien und Projekte so zu gestalten, dass sie nicht nur die Digital Humanities, sondern auch die Welt ein wenig besser machen.


Fußnoten


Bibliografische Angaben

  • Anne Baillot: »Digital Humanities und die Klimakrise« – ein Manifest. In: Digital Intellectuals. Hg. von Anne Baillot. Blogbeitrag vom 24.08.2021. [online].

  • Marianne Beisheim: Die ›Agenda 2030 für nachhaltige Entwicklung‹. In: Zeitschrift für die Vereinten Nationen und ihre Sonderorganisationen 63 (2015), H. 6, S. 255–260. [online] [Nachweis im GVK]

  • Anke Buettner: Gedächtnis mit Schlagseite – die Monacensia und #femaleheritage. In: Münchner Stadtbibliothek. Blog. Blogbeitrag vom 11.11.2020. [online]

  • Anke Buettner: Kulturerbe-Projekt #femaleheritage: Vom Spuren legen und Fährten lesen – Ausblick & Nachlese der Blogparade. In: Münchner Stadtbibliothek. Blog. Blogbeitrag vom 08.03.2021. [online]

  • John T. F. Burgess / Emily Knox / Robert Hauptman: Foundations of information ethics. Chicago 2019. [Nachweis im GVK]

  • Manuel Burghardt: Theorie und Digital Humanities – Eine Bestandsaufnahme. In: Digital Humanities Theorie. Hg. von AG Digital Humanities Theorie. Blogbeitrag vom 15.05.2020. [online]

  • Gender Gap in Wikidata. Hg. von Denelezh. In: denelezh.wmcloud.org/gender-gap. Analyse-Tool abgerufen am 21.09.2020. [online]

  • Leitlinien zur Sicherung guter wissenschaftlicher Praxis. Kodex. Hg. von Deutsche Forschungsgemeinschaft. Bonn 2019. In: zenodo.org/record/3923602. Version 1.0 vom 15.09.2019. DOI: 10.5281/zenodo.3923602

  • Directory of Open Access Journals. Hg. von DOAJ. [online]

  • Werkzeugsammlung Öffentliche Beschaffung. Hg. von Electronics Watch. In: electronicswatch.org. Amsterdam. [online]

  • Waltraud Ernst: Feministische Technikphilosophie. In: Handbuch Technikethik. Hg. von Armin Grunwald und Rafaela Hillebrand. Stuttgart 2021, S. 114–118. [Nachweis im GVK]

  • Dokumentation vom 04.09.2020. Hg. von Fachkonferenzen für sozial verantwortliche IT-Beschaffung. In: faire-beschaffung.de. Wustermark 2020. [online]

  • Claudia Frick / Christian Kaier: Publikationskosten für Zeitschriftenartikel abseits von Open-Access-Publikationsfonds – Lost in Transformation? In: o-bib. Das offene Bibliotheksjournal 7 (2020), H. 2, S. 1–15. Artikel vom 05.05.2020. DOI: 10.5282/O-BIB/5586

  • Batya Friedman: Value-sensitive design. In: Interactions 3 (1996), H. 6, S. 16–23. [Nachweis im GVK]

  • Batya Friedman / David Hendry: Value Sensitive Design. Shaping technology with moral imagination. Cambridge MA u. a. 2019. [Nachweis im GVK]

  • Batya Friedman / Peter Kahn / Alan Borning: Value Sensitive Design and Information Systems. In: The handbook of information and computer ethics. Hg. von Kenneth Einar Himma / Herman T. Tavani. Hoboken, NJ 2008, S. 69–101. [Nachweis im GVK]

  • Batya Friedman / Helen Nissenbaum: Bias in computer systems. In: ACM Transactions on Information Systems 14 (1996), H. 3, S. 330–347. PDF. [online] [Nachweis im GVK]

  • Marisa Gierlinger: Warum Tech-Konzerne der Gesichtserkennung abschwören. In: Süddeutsche Zeitung. Artikel vom 12.06.2020. [online]

  • Minimal Computing: About. Hg. von GO::DH Minimal Computing Working Group. In: go-dh.github.io. [online]

  • Verena Greb: 20 Jahre Wikipedia. Acht Dinge, die es zu wissen lohnt. In: Deutsche Welle vom 15.01.2021. [online]

  • Handbuch Technikethik. Hg. v. Armin Grunwald und Rafaela Hillerbrand. 2. Auflage. Stuttgart 2021.

  • Roger Häußling: Techniksoziologie. Eine Einführung. 2., überarbeitete und aktualisierte Auflage. Opladen u. a. 2019. [Nachweis im GVK]

  • Shawn Lawton Henry: Introduction to Web Accessibility. Hg. von W3C Web Accessibility Initiative. In: w3.org/WAI/standards-guidelines vom 11.07.2019. Website. [online]

  • Shawn Lawton Henry: W3C Accessibility Standards Overview. Hg. von W3C Web Accessibility Initiative. In: w3.org/WAI/standards-guidelines vom 30.04.2021. [online]

  • Handbuch Medien- und Informationsethik. Hg. v. Jessica Heesen, Stuttgart 2016. [Nachweis im GVK]

  • Martin Holland: Amazon: KI zur Bewerbungsprüfung benachteiligte Frauen. In: Heise Online. Artikel vom 11.10.2018. [online]

  • Martin Holland: Analyse: KI-Sprachmodell GPT-3 hegt tief verankerte Vorurteile gegen Muslime. In: Heise Online vom 25.01.2021. [online]

  • Digital Humanities: Eine Einführung. Hg. von Fotis Jannidis / Hubertus Kohle / Malte Rehbein. Stuttgart 2017 [Nachweis im GVK]

  • Peter H. Kahn: The human relationship with nature. Development and culture. Cambridge, MA. 1999. [Nachweis im GVK]

  • Daniél Kretschmar: Rassismus in Algorithmen. Gesichtserkennung für die Tonne. In: taz.de. Artikel vom 01.07.2020. [online]

  • Data Stewardship. Hg. von Landesinitiative für Forschungsdatenmanagement. In: fdm.nrw. Duisburg-Essen 2020. [online]

  • Han-Teng Liao: Harnessing the power of collaborative filtering. In: China Perspectives (2015), H. 4, S. 35–49. [Nachweis im GVK]

  • Stuart McLennan / Amelia Fiske / Leo Anthony Celi / Ruth Müller / Jan Harder / Konstantin Ritt / Sami Haddadin / Alena Buyx: An embedded ethics approach for AI development. In: Nature Machine Intelligence 2 (2020), H. 9, S. 488–490. [Nachweis im GVK]

  • Jessica K. Miller, Batya Friedman, Gavin Jancke: Value tensions in design. The Value Sensitive Design, development and appropriation of a corproation's groupware system, in: Proceedings of the 2007 International ACM Conference on Supporting Group Work, S. 281–290. DOI: 10.1145/1316624.1316668

  • What is NINES? Hg. von NINES Nineteenth-century Scholarship Online. In: nines.org/about. [online]

  • Safiya Umoja Noble: Toward a Critical Black Digital Humanities. In: Debates in the Digital Humanities. Hg. von Matthew K. Gold, Lauren F. Klein. Minneapolis, MN 2019, S. 27–35. [Nachweis im GVK]

  • Ibo van de Poel: Werthaltigkeit der Technik. In: Handbuch Technikethik. Hg. von Armin Grunwald und Rafaela Hillebrand. Stuttgart 2021, S. 132–136. [Nachweis im GVK]

  • Tanja Praske: Blogparade »Frauen und Erinnerungskultur #femaleheritage« der Monacensia (11.11.–09.12) mit Nachklapp. In: pearltrees.com. Inhalt vom 16.02.2021. [online]

  • The Programming Historian. Hg. von The Programming Historian. 2008–2021. [online]

  • Wie die Beschaffung fairer IT-Hardware gelingt. Hg. von Rat für Nachhaltige Entwicklung. In: nachhaltigkeitsrat.de/aktuelles. Artikel vom 25.06.2019. [online]

  • Roopika Risam: New digital worlds. Postcolonial digital humanities in theory, praxis, and pedagogy. Evanston, IL 2019. [Nachweis im GVK]

  • Hermann Rösch: Informationsethik und Bibliotheksethik. Grundlagen und Praxis. Berlin, Boston 2021. [Nachweis im GVK]

  • Antonio Rojas Castro: FAIR enough? Building DH resources in an unequal world. (Digital Humanities Kolloquium, BBAW, 07.08.2020). In: vimeo.com/445147368. Video. [online]

  • Camille Roth: Digital, digitized, and numerical humanities. In: Digital Scholarship in the Humanities 34 (2019), H. 3, S. 616–632. Artikel vom 05.11.2018. DOI: 10.1093/llc/fqy057 [Nachweis im GVK]

  • Anna Samoilenko: Multilingual historical narratives on Wikipedia. 2017. In: GESIS Data Archive. Datensatz. Version 1. DOI: 10.7802/1411

  • Judith Simon: Values in Design. In: Handbuch Medien- und Informationsethik. Hg. von Jessica Heesen. Stuttgart 2016, S. 357–364. [Nachweis im GVK]

  • Routledge international handbook of participatory design. Hg. von Jesper Simonsen / Toni Robertson. New York, NY u. a. 2013. [Nachweis im GVK]

  • Roger S. Ulrich: Biophilia, biophobia, and natural landscapes. In: The biophilia hypothesis. Hg. von Stephen R. Kellert. Washington, DC u. a. 1993, S. 73–137. [Nachweis im GVK]

  • Roger S. Ulrich: View through a window may influence recovery from surgery. In: Science 224 (1984), H. 4647, S. 420–421. [Nachweis im GVK]

  • Steven Umbrello / Ibo van de Poel: Mapping Value Sensitive Design onto AI for social good principles. In: AI and Ethics (2021). Artikel vom 01.02.2021. DOI: 10.1007/s43681-021-00038-3 [Nachweis im GVK]

  • A new companion to digital humanities. Hg. von Susan Schreibman / Ray Siemens / John Unsworth. Chichester u. a. 2016. [Nachweis im GVK]

  • Sara Wachter-Boettcher: Technically wrong. Sexist apps, biased algorithms, and other threats of toxic tech. New York, NY u. a. 2017. [Nachweis im GVK]

  • Vereinte Nationen Generalversammlung: Aktivitätenprogramm für die Durchführung der Internationalen Dekade der Menschen afrikanischer Abstammung. Resolution der Generalversammlung, verabschiedet am 18. November 2014.

  • Sarah Myers West: Raging Against the Machine: Network Gatekeeping and Collective Action on Social Media Platforms. In: Mobile Media and Communication 5 (2017), H. 3, S. 28–36. DOI: 10.17645/mac.v5i3.989 [Nachweis im GVK]

  • Kevin White / Shadi Abou-Zahra / Shawn Lawton Henry: Writing for Web Accessibility – Tips for Getting Started. Hg. von W3C Web Accessibility Initiative. In: w3.org/WAI/tips/writing/ vom 01.12.2020. [online]

  • Till Winkler / Sarah Spiekermann: Twenty years of Value Sensitive Design: a review of methodological practices in VSD projects. In: Ethics and Information Technology 23 (2021), S. 17–21. Artikel vom 21.08.2018. DOI: 10.1007/s10676-018-9476-2 [Nachweis im GVK]

  • ZfdG (2021a): I wie Impressum. In: Zeitschrift für digitale Geisteswissenschaften. 2021. [online]

  • ZfdG (2021b): P wie Publizieren. In: Zeitschrift für digitale Geisteswissenschaften. 2021. [online]


Abbildungsverzeichnis

  • Abb. 1: Die drei Untersuchungsschritte von Value-Sensitive-Design-Analysen. [Leyrer 2021].
  • Abb. 2: Beispiel für eine Natur-Szene, auf der keine Menschen abgebildet werden. Eignet sich auch für ein kurzes Experiment: Entspannt Sie der Anblick dieser Natur-Szene? [Wasserfall, Tal, Berge, Landschaft, Wald, Bachlauf. Hg. von Free Fotos. In: pixabay.com. Bild vom 08.01.2016]. [online]
  • Abb. 3: Ausschnitt aus einer Zusammenstellung der knapp 200 Blogartikel, die im Kontext der #femaleheritage-Blogparade entstanden sind. [Praske 2021]