Versionen vergleichen von : Bye, Bye, Bias! Digital-Humanities-Projekte informationsethisch überprüfen und gestalten mit Value Sensitive Design

AltNeu
2 2
3
4
5
6 Katharina Leyrer 3 Katharina Leyrer
7
8 Kontakt: katharina.leyrer@fau.deInstitution: Friedrich-Alexander-Universität 4 Kontakt: katharina.leyrer@fau.deInstitution: Friedrich-Alexander-Universität
10 6
11Sie möchten das Long Paper 7
12 kommentieren? 8
13 9 DOI: 10.17175/sb005_003_v2
14 Bis zum 08.11.2021 kann mittels des Annotationstools hypothes.is das Long 10 Nachweis im OPAC der Herzog August Bibliothek: 1839573139
15 Paper direkt hier auf der Seite öffentlich begutachtet und kommentiert werden. Die
16 Annotations-Sidebar von hypothes.is öffnen Sie in der rechten oberen
17 Ecke. Sobald Sie eingeloggt sind, sehen Sie alle Kommentare und können
18 eigene hinzufügen.
19
20
21
22
23
24
25 DOI:
26 10.17175/sb005_003
27
28
29 Nachweis im OPAC der Herzog August Bibliothek:
30 1764792149
31
32 Erstveröffentlichung: 08.09.2021 11 Erstveröffentlichung: 08.09.2021
12
13Version 2.0: 21.03.2023
14
33 Lizenz: Sofern nicht anders angegeben 15 Lizenz: Sofern nicht anders angegeben
35 17
36 Medienlizenzen: Medienrechte liegen bei den 18 Medienlizenzen: Medienrechte liegen bei den Autor*innen
37 Autor*innen 19
38 Letzte Überprüfung aller Verweise: 07.09.2021 20 Letzte Überprüfung aller Verweise: 07.09.2021
39 GND-Verschlagwortung: Informationsethik 21
40 | Digital 22 GND-Verschlagwortung: Informationsethik | Digital Humanities | Mensch-Maschine-Kommunikation | Design | Bias | 
41 Humanities | Mensch-Maschine-Kommunikation | Design | Bias | 23
42 Empfohlene Zitierweise: Katharina Leyrer: Bye, Bye, 24 Empfohlene Zitierweise: Katharina Leyrer: Bye, Bye, Bias! Digital-Humanities-Projekte wertebasiert gestalten mit Value Sensitive Design. In: Fabrikation von Erkenntnis – Experimente in den Digital Humanities. Hg. von Manuel Burghardt, Lisa Dieckmann, Timo Steyer, Peer Trilcke, Niels Walkowski, Joëlle Weis, Ulrike Wuttke. Wolfenbüttel 2021. (= Zeitschrift für digitale Geisteswissenschaften / Sonderbände, 5). Erstveröffentlichung 08.09.2021. Version 2.0 vom 21.03.2023. HTML / XML / PDF. DOI: 10.17175/sb005_003_v2
43 Bias! Digital-Humanities-Projekte wertebasiert gestalten mit Value Sensitive
44 Design. In: Fabrikation von Erkenntnis – Experimente in den Digital Humanities.
45 Hg. von Manuel Burghardt, Lisa Dieckmann, Timo Steyer, Peer Trilcke, Niels
46 Walkowski, Joëlle Weis, Ulrike Wuttke. Wolfenbüttel 2021. (= Zeitschrift für
47 digitale Geisteswissenschaften / Sonderbände, 5) text/html Format. DOI: 10.17175/sb005_003
48 25
53 Abstract 30 Abstract
54 Technologien sind nicht neutral, sondern fördern bestimmte Werte und behindern 31 Technologien sind nicht neutral, sondern fördern bestimmte Werte und
55 andere. Das gilt auch für Technologien, die in den Digital Humanities entwickelt 32 behindern andere. Das gilt auch für Technologien, die in den Digital
56 und genutzt werden. Daher bedürfen diese Technologien einer ethischen 33 Humanities entwickelt und genutzt werden. Daher bedürfen diese
57 Untersuchung und Einordnung. Der Ansatz des Value Sensitive Design ermöglicht 34 Technologien einer ethischen Untersuchung und Einordnung. Der Ansatz des
58 einerseits, systematisch zu analysieren, welche Interessen und Werte in eine 35 Value Sensitive Design ermöglicht einerseits, systematisch zu
59 bestimmte Technologie eingeschrieben werden und ist zugleich ein Framework, um 36 analysieren, welche Interessen und Werte in eine bestimmte Technologie
60 Technologien wertesensitiv zu entwickeln. Der Beitrag zeigt auf, wie Value 37 eingeschrieben werden und ist zugleich ein Framework, um Technologien
61 Sensitive Design als theoretischer und methodischer Ansatz in den 38 wertesensitiv zu entwickeln. Der Beitrag zeigt auf, wie Value Sensitive
62 unterschiedlichen Spielarten der Digital Humanities genutzt werden kann. 39 Design als theoretischer und methodischer Ansatz in den
63 40 unterschiedlichen Spielarten der Digital Humanities genutzt werden
64 41 kann.
65 42
66 Technological systems are not neutral but promote certain values and hinder 43
67 others. That is also true for technologies that are developed and used in the 44
68 field of Digital Humanities. Therefore, these technologies need to be reviewed 45
69 from an ethical point of view. Value Sensitive Design is a framework to 46
70 systematically analyze whose interests and values are implemented in a 47 Technological systems are not neutral but promote certain values and
71 technological system. At the same time, Value Sensitive Design facilitates 48 hinder others. That is also true for technologies that are developed and
72 accounting for human values when designing technologies. This contribution 49 used in the field of Digital Humanities. Therefore, these technologies
73 points out how Value Sensitive Design can be used as a theoretical and 50 need to be reviewed from an ethical point of view. Value Sensitive
74 methodological approach in different areas of Digital Humanities activities. 51 Design is a framework to systematically analyze whose interests and
75 52 values are implemented in a technological system. At the same time,
76 53 Value Sensitive Design facilitates accounting for human values when
77 54 designing technologies. This contribution points out how Value Sensitive
78 55 Design can be used as a theoretical and methodological approach in
79 56 different areas of Digital Humanities activities.
57
58
59
60
61 Version 2.0 (21.03.2023)
62 Es wurden folgende Änderungen vorgenommen: Inhaltliche und strukturelle Anpassungen,
63 wie sie von den Gutachten angemerkt worden sind. Aktualisierung und Ergänzung der
64 Fußnoten und der bibliografischen Angaben. Formale Korrekturen.
80 65
84 1. Einleitung 69 1. Einleitung
85
86
87 2. Wie kommt der Bias in die Technologie? 70 2. Wie kommt der Bias in die Technologie?
88
89
90 3. Technologien in den Digital Humanities 71 3. Technologien in den Digital Humanities
91 72 4. Ethik in den DH: Informations- und Technikethik
92 73 5. Value Sensitive Design: Grundlagen und methodisches Vorgehen
93 4. Value Sensitive Design: Grundlagen und methodisches 74 5.1 Drei Untersuchungsabschnitte von Value Sensitive Design
94 Vorgehen 75 5.2 Anwendung von Value Sensitive Design: Zwei Beispiele
95 76 5.2.1 ›Room with a view‹: Virtuelle Fenster in Büroräumen
96 77 5.2.2 Die Groupware CodeCOOP für den Wissensaustausch in Unternehmen
97 4.1 Drei Untersuchungsabschnitte von Value Sensitive 78 6. Value Sensitive Design in Digital-Humanities-Projekten
98 Design 79 6.1 Pre-Existing Bias in den Digitized Humanities abmindern
99 80 6.1.1 Gender Bias ausgleichen
100 81 6.1.2 Digitale Archive postkolonial gestalten
101 4.2 Anwendung von Value Sensitive Design am Beispiel ›Room 82 6.1.3 Barrierefreiheit fördern
102 with a view‹ 83 6.2 Design-Normen für KI-Anwendungen in den Numerical Humanities
103 84
104 85 6.3 Akteur*innen und ihre Interessen in den Humanities of the Digital analysieren
105 5. Value Sensitive Design in Digital-Humanities-Projekten 86 6.4 Mehr Barrierefreiheit in den Public
106 87 Humanities schaffen
107 88 6.5 Menschenrechte und Umweltschutz in allen DH-Spielarten
108 5.1 Pre-Existing Bias in den Digitized Humanities
109 abmindern
110
111
112 5.1.1 Digitale Archive postkolonial gestalten
113
114
115 5.1.2 Gender Bias ausgleichen
116
117
118 5.1.3 Barrierefreiheit fördern
119
120
121 5.2 Design-Normen für KI-Anwendungen in den Numerical
122 Humanities
123
124
125 5.3 Akteur*innen und ihre Interessen in den Humanities of
126 the Digital analysieren
127
128
129 5.4 Mehr Barrierefreiheit in den Public Humanities
130 schaffen
131
132
133 5.5 Menschenrechte und Umweltschutz in allen DH-Spielarten
134 fördern 89 fördern
135 90 7. Zusammenfassung, Limitationen und Ausblick
136 91 Bibliografische Angaben
137 6. Zusammenfassung, Limitationen und Ausblick
138
139
140 Bibliographische Angaben
141
142
143 Abbildungsverzeichnis 92 Abbildungsverzeichnis
145 94
146
147
148
149
150 1. Einleitung 95 1. Einleitung
151 96
152 [1]Eine Gesichtserkennungssoftware, die in 97 [1]Eine Gesichtserkennungssoftware, die in polizeilichen Ermittlungen in den USA
153 polizeilichen Ermittlungen in den USA zum Einsatz kommt, erzeugt 98 zum Einsatz kommt, erzeugt überdurchschnittlich oft falsche Matches, wenn
154 überdurchschnittlich oft falsche Matches, wenn sie Bilder Schwarzer Menschen 99 sie Bilder Schwarzer Menschen abgleicht – weil die Software mit Gesichtern
155 abgleicht – weil die Software mit Gesichtern weißer Menschen trainiert wurde. 100 weißer Menschen trainiert wurde. Die Technologie
156 Die Technologie ruft damit rassistische Diskriminierung hervor.[1] Ein 101 ruft damit rassistische Diskriminierung hervor.[1] Ein
157 selbstlernendes System, das der Konzern Amazon zur Vorauswahl von 102 selbstlernendes System, das der Konzern Amazon zur
158 Bewerber*innen einsetzte, diskriminierte auf Basis binärer 103 Vorauswahl von Bewerber*innen einsetzte, diskriminierte auf Basis binärer
159 Geschlechtszuschreibungen: Die Software bewertete Bewerbungen von Frauen 104 Geschlechtszuschreibungen: Die Software bewertete Bewerbungen von Frauen
160 systematisch schlechter als die von Männern.[2] Stereotype auf Basis von religiöser 105 systematisch schlechter als die von Männern.[2] Stereotype auf Basis von religiöser Zugehörigkeit
161 Zugehörigkeit reproduzierte das Sprachmodell GPT-3, zu dessen Nutzer*innen 106 reproduzierte das Sprachmodell GPT-3, zu dessen
162 Microsoft gehört: Das Sprachmodell assoziierte Menschen muslimischen 107 Nutzer*innen Microsoft gehört: Das Sprachmodell
163 Glaubens mit Gewalt.[3] Diese Beispiele zeigen: Technologien können bestimmte Akteur*innen 108 assoziierte Menschen muslimischen Glaubens mit Gewalt.[3] Diese Beispiele zeigen: Technologien können
164 systematisch benachteiligen. Solche Technologien beschreiben Friedman und Nissenbaum 109 bestimmte Akteur*innen systematisch benachteiligen. Solche Technologien
165 als »biased«, da sie »systematically and unfairly discriminate against 110 beschreiben Friedman und Nissenbaum als »biased«, da
166 certain individuals or groups of individuals in favor of others«.[4] Das Design von Technologien bedarf daher einer informationsethischen 111 sie »systematically and unfairly discriminate against certain individuals
112 or groups of individuals in favor of others«.[4]
113 Das Design von Technologien bedarf daher einer ethischen
167 Untersuchung.[5] 114 Untersuchung.[5]
168 [2]Warum ist das für die Digital Humanities von 115 [2]Warum ist das für die Digital Humanities von Bedeutung? Jedes
169 Bedeutung? Jedes Digital-Humanities-Projekt hat in irgendeiner Weise mit 116 Digital-Humanities-Projekt hat in irgendeiner Weise mit Technologien zu tun,
170 Technologien zu tun, z. B. wenn Akteur*innen digitale Datensätze erstellen, 117 z. B. wenn Akteur*innen digitale Datensätze erstellen, kuratieren und
171 kuratieren und nutzen, Tools und Analyseverfahren entwickeln und anwenden, 118 nutzen, Tools und Analyseverfahren entwickeln und anwenden,
172 Online-Communities und computervermittelte Interaktionen geisteswissenschaftlich 119 Online-Communities und computervermittelte Interaktionen
173 untersuchen[6] 120 geisteswissenschaftlich untersuchen[6] oder digitale Publikationen und E-Learning-Angebote
174 oder digitale Publikationen und E-Learning-Angebote realisieren.[7] Diese Technologien 121 realisieren.[7] Diese Technologien
175 können – wie alle anderen auch – Bias aufweisen. Aktuell finden ethische Aspekte bei 122 können – wie alle anderen auch – Bias aufweisen. Aktuell finden ethische
176 der Konzeption und Realisierung von Digital-Humanities-Projekten, -Technologien und 123 Aspekte bei der Konzeption und Realisierung von
177 -Infrastrukturen jedoch wenig Beachtung.[8] Für die gute wissenschaftliche Praxis, wie sie beispielsweise die DFG 124 Digital-Humanities-Projekten, -Technologien und -Infrastrukturen jedoch
178 in ihren Leitlinien festschreibt, ist eine ethische Überprüfung von 125 wenig Beachtung.[8] Für die gute wissenschaftliche Praxis, wie sie
179 Forschungsvorhaben zugleich unabdingbar.[9] 126 beispielsweise die DFG in ihren Leitlinien festschreibt, ist eine ethische
180 [3]Dieser Beitrag geht daher der Frage nach, wie 127 Überprüfung von Forschungsvorhaben zugleich unabdingbar.[9]
181 Technologien, die in den Digital Humanities entwickelt und genutzt werden, 128 [3]Dieser Beitrag geht daher der Frage nach, wie Technologien, die in den
182 informationsethisch überprüft und wertebasiert gestaltet werden können. Zunächst 129 Digital Humanities entwickelt und genutzt werden, ethisch
183 wird beschrieben, welche verschiedenen Formen von Bias Technologien aufweisen 130 überprüft und wertebasiert gestaltet werden können. Ziel des Beitrages ist es,
184 können. Zudem wird skizziert, welche Technologien in den Digital Humanities eine 131 zu zeigen, wie Digital Humanities-Projekte auf Basis des Value-Sensitive-Design-Ansatzes
185 Rolle spielen. Anschließend wird der Value-Sensitive-Design-Ansatz vorgestellt, mit 132
186 dem Technologien wertebasiert analysiert und entwickelt werden können. Obwohl der 133 aus einer ethischen Perspektive reflektiert und so gestaltet werden können, dass
187 Ansatz in Feldern wie der Informationstechnologie, dem Bauingenieurswesen und der 134 sie die Werte aller beteiligten Akteur*innen berücksichtigen.
188 Gesundheitstechnologie bereits etabliert ist, hat die Anwendung von Value Sensitive 135
189 Design in den Digital Humanities experimentellen Charakter.[10] Daher wird in Kapitel 5 136
190 anhand konkreter Beispiele vorgestellt, wie Value Sensitive Design in den 137 [4]Zunächst wird beschrieben, welche verschiedenen Formen von Bias Technologien aufweisen
191 verschiedenen Teilbereichen der Digital Humanities angewendet werden kann. 138 können. Zudem wird skizziert, welche Technologien in den Digital Humanities
192 139 eine Rolle spielen. Da ethische Reflektionen in den Digital Humanities an die Informations-
193 2. Wie kommt der Bias in die 140
194 Technologie? 141 und Technikethik anknüpfen können, werden daraufhin diese beiden Bereichsethiken kurz
195 142 umrissen.
196 [4]Nach Friedman und Nissenbaum kann Bias in 143 Anschließend wird der Value-Sensitive-Design-Ansatz
197 technischen Systemen auf drei unterschiedliche Weisen entstehen.[11] Sie 144 vorgestellt, mit dem Technologien wertebasiert analysiert und entwickelt
198 unterscheiden Pre-Existing Bias, 145 werden können. Obwohl der Ansatz in Feldern wie der Informationstechnologie,
199 Technical Bias und Emergent Bias. Mit Pre-Existing Bias 146 dem Bauingenieurswesen und der Gesundheitstechnologie bereits etabliert ist,
200 sind Verzerrungen gemeint, die bereits vor der Entwicklung der Technologie 147 hat die Anwendung von Value Sensitive Design in den Digital Humanities
201 existieren: Die Designer*innen oder Auftraggeber*innen schreiben – bewusst oder 148 experimentellen Charakter.[10] Daher
202 unbewusst – bereits existierende persönliche oder gesellschaftliche Vorurteile in 149 wird in
203 das System ein. Ein Beispiel: Die automatische Zugangskontrolle zu den 150 Kapitel 5 anhand konkreter Beispiele vorgestellt,
204 Umkleideräumen eines Fitnessstudios in London ordnete Personen mit einem Doktortitel 151 wie Value Sensitive Design in den verschiedenen Teilbereichen der Digital
205 automatisch als männlich ein und verwehrte ihnen den Zugang zu den Damenumkleiden – 152 Humanities angewendet werden kann.
206 weil die Designer*innen des Systems davon ausgegangen waren, dass nur Männer einen 153
207 Doktortitel haben können.[12] Auch die oben bereits 154
208 erwähnte Software, die Amazon zur 155 2. Wie kommt der Bias in die Technologie?
209 Vorauswahl von Bewerber*innen einsetzte, hat einen Pre-Existing Bias: Da das 156
210 Unternehmen bislang vor allem Männer eingestellt hatte, ging das selbstlernende 157 [5]Nach Friedman und Nissenbaum kann Bias in technischen Systemen auf drei
211 System davon aus, dass Frauen weniger geeignet für eine Einstellung bei Amazon 158 unterschiedliche Weisen entstehen.[11] Sie unterscheiden Pre-Existing Bias, Technical Bias und Emergent
212 seien.[13] 159 Bias. Mit Pre-Existing Bias sind
213 [5]Technical Bias entsteht hingegen bei 160 Verzerrungen gemeint, die bereits vor der Entwicklung der Technologie
214 der »resolution of issues in the technical design«,[14] 161 existieren: Die Designer*innen oder Auftraggeber*innen schreiben – bewusst
215 beispielsweise durch Limitationen der Hard- und Software oder wenn Algorithmen 162 oder unbewusst – bereits existierende persönliche oder gesellschaftliche
216 bestimmte Akteur*innen bevorzugen und andere benachteiligen. So führt die 163 Vorurteile in das System ein. Ein Beispiel: Die automatische
217 beschränkte Größe von Bildschirmen beispielsweise dazu, dass die Ergebnisliste von 164 Zugangskontrolle zu den Umkleideräumen eines Fitnessstudios in London
218 Suchmaschinen in verschiedene ›Seiten‹ aufgeteilt wird, die nur nacheinander auf dem 165 ordnete Personen mit einem Doktortitel automatisch als männlich ein und
219 entsprechenden Bildschirm angezeigt werden können. Suchergebnisse, die auf der 166 verwehrte ihnen den Zugang zu den Damenumkleiden – weil die Designer*innen
220 zweiten Seite angezeigt werden, werden jedoch weniger oft angeklickt. Bevorzugt der 167 des Systems davon ausgegangen waren, dass nur Männer einen Doktortitel haben
221 Algorithmus der Suchmaschine zusätzlich bestimmte Websites und zeigt diese ganz oben 168 können.[12] Auch
222 in der Ergebnisliste an, werden diese also deutlich öfter angeklickt – es liegt eine 169 die oben bereits erwähnte Software, die Amazon zur
223 unfaire, systematische Diskriminierung vor. Technical Bias kann aber auch 170 Vorauswahl von Bewerber*innen einsetzte, hat einen Pre-Existing Bias: Da das Unternehmen
224 entstehen, wenn »Human Constructs«[15] wie Urteile, Diskurse 171 bislang vor allem Männer
225 oder Institutionen formalisiert und quantifiziert werden. Dies passiert 172 eingestellt hatte, ging das selbstlernende System davon aus, dass Frauen
226 beispielsweise in Software, die voraussagt, wie hoch die Wahrscheinlichkeit ist, 173 weniger geeignet für eine Einstellung bei Amazon seien.[13]
227 dass ein*e Straftäter*in wiederholt delinquent wird.[16] 174 [6]
228 [6]Emergent Bias entsteht hingegen erst 175 Technical Bias entsteht hingegen bei der
229 im Anwendungskontext der Technologie, also wenn Personen die Technologie nutzen. 176 »resolution of issues in the technical design«[14], beispielsweise durch
230 Gründe für Emergent Bias können sein, dass »new knowledge in society«[17] nicht in die Technologie aufgenommen wird oder die Nutzer*innen der 177 Limitationen der Hard- und Software oder wenn Algorithmen bestimmte
231 Technologie andere Fähigkeiten und Werte haben als die Nutzer*innengruppe, für 178 Akteur*innen bevorzugen und andere benachteiligen. So führt die beschränkte
232 welche die Technologie ursprünglich designt wurde. Wenn beispielsweise ein 179 Größe von Bildschirmen beispielsweise dazu, dass die Ergebnisliste von
233 Geldautomat, der v. a. schriftbasiert mit Nutzer*innen kommuniziert (z. B. ›Geben 180 Suchmaschinen in verschiedene ›Seiten‹ aufgeteilt wird, die nur nacheinander
234 Sie unten links Ihre Karte ein‹) in einer Gegend aufgestellt wird, in der viele 181 auf dem entsprechenden Bildschirm angezeigt werden können. Suchergebnisse,
235 Analphabet*innen wohnen, entsteht ein Emergent Bias: Die tatsächlichen Nutzer*innen 182 die auf der zweiten Seite angezeigt werden, werden jedoch weniger oft
236 unterscheiden sich in ihren Fähigkeiten von den angenommenen Nutzer*innen der 183 angeklickt. Bevorzugt der Algorithmus der Suchmaschine zusätzlich bestimmte
237 Technologie. Vor allem Benutzeroberflächen weisen oft Emergent Bias auf, da sie mit 184 Websites und zeigt diese ganz oben in der Ergebnisliste an, werden diese
238 Blick auf die Fähigkeiten und Gewohnheiten bestimmter Zielgruppen gestaltet werden. 185 also deutlich öfter angeklickt – es liegt eine unfaire, systematische
239 Diese können sich jedoch im Lauf der Zeit verändern.[18] 186 Diskriminierung vor. Technical Bias kann aber auch
240 187 entstehen, wenn »Human Constructs«[15] wie Urteile, Diskurse oder
241 188 Institutionen formalisiert und quantifiziert werden. Dies passiert
242 3. Technologien in den Digital 189 beispielsweise in Software, die voraussagt, wie hoch die Wahrscheinlichkeit
243 Humanities 190 ist, dass ein*e Straftäter*in wiederholt delinquent wird.[16]
244 191 [7]
245 [7]Technologien können also auf unterschiedliche 192 Emergent Bias entsteht hingegen erst im
246 Weise Bias hervorbringen. Was bedeutet das für die Digital Humanities? 193 Anwendungskontext der Technologie, also wenn Personen die Technologie
247 [8]Nach Friedman und Hendry umfassen Technologische Systeme sowohl Werkzeuge und Technologien, als auch Infrastrukturen und Policies. Unter Werkzeugen verstehen sie dabei 194 nutzen. Gründe für Emergent Bias können sein, dass »new knowledge in
248 »physical artifacts that augment human activity«[19] wie z. B. eine 195 society«[17] nicht in die Technologie
249 Steinaxt oder ein Messer. Wenn darüber hinaus wissenschaftliche Erkenntnisse 196 aufgenommen wird oder die Nutzer*innen der Technologie andere Fähigkeiten
250 angewandt werden, um praktische Probleme zu lösen (beispielsweise bei Traktoren und 197 und Werte haben als die Nutzer*innengruppe, für welche die Technologie
251 Computern), sprechen Friedman und Hendry von Technologien – wobei die 198 ursprünglich designt wurde. Wenn beispielsweise ein Geldautomat, der v. a.
252 Übergänge zwischen Werkzeugen und Technologien fließend sind. Infrastrukturen 199 schriftbasiert mit Nutzer*innen kommuniziert (z. B. ›Geben Sie unten links
253 beschreiben schließlich alle Einrichtungen und Strukturen, die nötig sind, um ein 200 Ihre Karte ein‹) in einer Gegend aufgestellt wird, in der viele
254 Vorhaben oder gesellschaftliche Aktivitäten zu realisieren, beispielsweise Straßen 201 Analphabet*innen wohnen, entsteht ein Emergent Bias: Die tatsächlichen
255 und Energieversorgung. Werkzeuge, Technologien und Infrastrukturen stehen dabei in 202 Nutzer*innen unterscheiden sich in ihren Fähigkeiten von den angenommenen
256 wechselseitiger Abhängigkeit und ergeben in ihrem Zusammenspiel sog. 203 Nutzer*innen der Technologie. Vor allem Benutzeroberflächen weisen oft
257 Technologische Systeme. Im Folgenden wird der Begriff Technologien 204 Emergent Bias auf, da sie mit Blick auf die Fähigkeiten und Gewohnheiten
258 als Kurzform für Technologische Systeme genutzt und beschreibt dabei Werkzeuge, 205 bestimmter Zielgruppen gestaltet werden. Diese können sich jedoch im Lauf
259 Technologien und Infrastrukturen genauso wie deren Zusammenspiel. Schließlich fassen 206 der Zeit verändern.[18]
260 Friedman und Hendry auch Policies, also Regelwerke oder Strategien, unter den 207
261 Technologie-Begriff, da Policies als »some combination of tool and infrastructure«[20] verstanden werden und menschliches Handeln ebenfalls prägen.[21] 208 3. Technologien in den Digital Humanities
262 [9]Welche Technologien werden in den DH also 209
263 genutzt und angewendet? Eine systematische Orientierung bieten dabei die Spielarten 210 [8]Technologien können also auf unterschiedliche Weise Bias hervorbringen. Was
264 der DH, die Roth und Burghardt unterscheiden: Digitized Humanities, Numerical Humanities, Humanities of the Digital und Public Humanities.[22] 211 bedeutet das für die Digital Humanities?
265 [10]Mit dem Begriff Digitized Humanities 212
266 beschreibt Roth »the creation, curation, and use of digitized data sets«[23] in 213 [9]Nach Friedman und Hendry umfassen Technologische Systeme
267 den Geistes- und Sozialwissenschaften. Akteur*innen in den Digitized Humanities 214 sowohl Werkzeuge und Technologien, als auch Infrastrukturen
268 »digitize, store, process, gather, connect, manage, make available, mine and 215 und Policies. Unter Werkzeugen
269 visualize«[24] Texte, Bilder und Multimedia-Artefakte. Dafür entwickeln und nutzen 216 verstehen sie dabei »physical artifacts that augment human
270 sie Software. In dieser Spielart der DH sind also beispielsweise Datenmanagement- 217 activity«[19] wie z. B. eine Steinaxt oder ein Messer.
271 und Datenspeichersysteme, aber auch Visualisierungs-, Analyse-, Scraping- und 218 Wenn darüber hinaus wissenschaftliche Erkenntnisse angewandt werden, um
272 OCR-Tools sowie Benutzeroberflächen von Bedeutung. Darüber hinaus spielen Digitale 219 praktische Probleme zu lösen (beispielsweise bei Traktoren und Computern),
273 Bibliotheken und Archive als Infrastrukturen eine Rolle, genauso wie Policies für 220 sprechen Friedman und Hendry von Technologien – wobei
274 die Erhebung, Kuratierung, Archivierung und Verfügbarmachung von Datensätzen. 221 die Übergänge zwischen Werkzeugen und Technologien fließend sind. Infrastrukturen
275 [11]In der Kategorie der Numerical 222 beschreiben schließlich alle
276 Humanities geht es hingegen darum, soziale Prozesse zu formalisieren, indem 223 Einrichtungen und Strukturen, die nötig sind, um ein Vorhaben oder
277 mathematisch abstrahierte Modelle erstellt werden. Ziel ist dabei, »to capture the 224 gesellschaftliche Aktivitäten zu realisieren, beispielsweise Straßen und
278 possibly general mechanisms at the root of the observed data«.[25] Prozesse 225 Energieversorgung. Werkzeuge, Technologien und Infrastrukturen stehen dabei
279 softwaregestützt zu realisieren, die andernfalls langwierig oder schwierig umsetzbar 226 in wechselseitiger Abhängigkeit und ergeben in ihrem Zusammenspiel sogenannte Technologische
280 sind – wie beispielsweise bei OCR oder statistischen Analysen – versteht Roth dabei 227 Systeme. Im Folgenden wird der Begriff
281 nicht als Numerical Humanities; vielmehr zeichnet sich diese Spielart dadurch aus, 228 Technologien als Kurzform für Technologische
282 dass »numerical models of human or social behavior per se«[26] entwickelt werden. Hier 229 Systeme genutzt und beschreibt dabei Werkzeuge, Technologien und
283 kommen vor allem selbstlernende Systeme zum Einsatz, beispielsweise 230 Infrastrukturen genauso wie deren Zusammenspiel. Schließlich fassen Friedman
284 Mustererkennungssoftware, die nach Gesetzmäßigkeiten in bestimmten Datensätzen 231 und Hendry auch Policies, also Regelwerke oder
285 sucht. 232 Strategien, unter den Technologie-Begriff, da Policies als »some
286 [12]Schließlich beschreibt Roth die 233 combination of tool and infrastructure«[20] verstanden werden und menschliches Handeln
287 Humanities of the Digital als weitere Spielart der DH und meint damit die 234 ebenfalls prägen.[21]
288 geisteswissenschaftliche Forschung zu computervermittelter Kommunikation, 235 [10]Welche Technologien werden in den DH also genutzt und angewendet? Eine
289 Mensch-Maschine-Interaktion und Online-Gemeinschaften. Online-Communities werden als 236 systematische Orientierung bieten dabei die Spielarten der DH, die Roth und
290 sozio-technische Systeme verstanden, die sich durch eigene Regeln und Settings 237 Burghardt unterscheiden: Digitized Humanities,
291 auszeichnen und die es zu untersuchen gilt. So gehören neben Studien zur Rolle von 238 Numerical Humanities,
292 digitaler Kommunikation im Alltag auch Untersuchungen zu Wikipedia, Blogs, sozialen Netzwerkseiten 239 Humanities of the Digital und Public
293 und Gaming-Plattformen zu den Humanities of the Digital.[27] In 240 Humanities.[22]
294 dieser Spielart geht es – anders als in den Digitized Humanities und den Numerical 241 [11]Mit dem Begriff Digitized Humanities beschreibt Roth
242 »the creation, curation, and use of digitized data
243 sets«[23] in den Geistes- und Sozialwissenschaften. Akteur*innen in
244 den Digitized Humanities »digitize, store, process, gather, connect,
245 manage, make available, mine and visualize«[24] Texte, Bilder und Multimedia-Artefakte. Dafür entwickeln
246 und nutzen sie Software. In dieser Spielart der DH sind also beispielsweise
247 Datenmanagement- und Datenspeichersysteme, aber auch Visualisierungs-,
248 Analyse-, Scraping- und Optical Character Recognition (OCR)-Tools sowie Benutzeroberflächen
249 von Bedeutung.
250 Darüber hinaus spielen digitale Bibliotheken und Archive als Infrastrukturen
251 eine Rolle, genauso wie Policies für die Erhebung, Kuratierung, Archivierung
252 und Verfügbarmachung von Datensätzen.
253
254 [12]In der Kategorie der Numerical Humanities geht es
255 hingegen darum, soziale Prozesse zu formalisieren, indem mathematisch
256 abstrahierte Modelle erstellt werden. Ziel ist dabei, »to capture the
257 possibly general mechanisms at the root of the observed
258 data«[25]. Prozesse softwaregestützt zu realisieren, die andernfalls
259 langwierig oder schwierig umsetzbar sind – wie beispielsweise bei OCR oder
260 statistischen Analysen – versteht Roth dabei nicht als Numerical Humanities;
261 vielmehr zeichnet sich diese Spielart dadurch aus, dass »numerical
262 models of human or social behavior per se«[26] entwickelt werden. Hier kommen vor allem selbstlernende
263 Systeme zum Einsatz, beispielsweise Mustererkennungssoftware, die nach
264 Gesetzmäßigkeiten in bestimmten Datensätzen sucht.
265
266 [13]Schließlich beschreibt Roth die Humanities of the Digital als weitere
267 Spielart der DH und meint damit die geisteswissenschaftliche Forschung zu
268 computervermittelter Kommunikation, Mensch-Maschine-Interaktion und
269 Online-Gemeinschaften. Online-Communities werden als sozio-technische
270 Systeme verstanden, die sich durch eigene Regeln und Settings auszeichnen
271 und die es zu untersuchen gilt. So gehören neben Studien zur Rolle von
272 digitaler Kommunikation im Alltag auch Untersuchungen zu Wikipedia, Blogs,
273 Sozialen-Netzwerk-Seiten und Gaming-Plattformen zu den Humanities of the
274 Digital. [27] In dieser
275 Spielart geht es – anders als in den Digitized Humanities und den Numerical
295 Humanities – weniger darum, Technologien anzuwenden und zu entwickeln; 276 Humanities – weniger darum, Technologien anzuwenden und zu entwickeln;
297 Untersuchungsgegenstand. 278 Untersuchungsgegenstand.
298 [13]Den drei von Roth beschriebenen 279
299 Teilbereichen der DH fügt Burghardt noch einen vierten hinzu, die Public 280 [14]Den drei von Roth beschriebenen Teilbereichen der DH fügt Burghardt noch
300 Humanities. Diese umfassen die Themenfelder des digitalen Publizierens, der 281 einen vierten hinzu, die Public Humanities. Diese umfassen die Themenfelder
301 Wissenschaftskommunikation und des E-Learning.[28] Hier spielen Infrastrukturen wie 282 des digitalen Publizierens, der Wissenschaftskommunikation und des
302 Zeitschriften, Portale, Verlage und deren Policies eine Rolle, aber auch Soft- und 283 E-Learning.[28] Hier spielen
303 Hardware, die für die Rezeption digitaler Publikationen und E-Learning-Ressourcen 284 Infrastrukturen wie Zeitschriften, Portale, Verlage und deren Policies eine
304 benötigt werden, z. B. E-Book-Formate oder User Interfaces. 285 Rolle, aber auch Soft- und Hardware, die für die Rezeption digitaler
305 286 Publikationen und E-Learning-Ressourcen benötigt werden, z. B.
306 287 E-Book-Formate oder User Interfaces.
307 4. Value Sensitive Design: Grundlagen und 288
308 methodisches Vorgehen 289
309 290 4. Ethik in den DH: Informations- und Technikethik
310 [14]Bisher wurde also deutlich, dass in 291
311 Digital-Humanities-Projekten verschiedenste Technologien eine Rolle spielen und dass 292 [15]Bisher wurde also deutlich, dass in Digital-Humanities-Projekten
312 jede Technologie verschiedene Formen von Bias enthalten kann. Damit kann auch jede 293 verschiedenste Technologien eine Rolle spielen und dass jede Technologie
313 Technologie, die in DH-Projekten entwickelt oder angewendet wird, biased 294 verschiedene Formen von Bias enthalten kann. Damit kann auch jede
314 sein. Wie aber können wir verhindern, dass Technologien in DH-Projekten Bias 295 Technologie, die in DH-Projekten entwickelt oder angewendet wird, biased sein und bedarf einer ethischen Überprüfung. Wie aber können wir
315 beinhalten, hervorrufen oder verstärken? 296 den ethischen Herausforderungen begegnen, die sich aus den verschiedenen
316 [15]Ein Ansatz dazu ist Value Sensitive Design. 297 Technologien in den Digital Humanities ergeben?[29]
317 Er wurde von Batya Friedman bereits in den 1990er-Jahren entwickelt[29] und zeichnet sich – 298 [16]Allgemein versucht Ethik die Frage zu beantworten, »wie menschliches Handeln möglich wird, das als gut,
318 im Gegensatz zu anderen Ansätzen wie z. B. ›Social Shaping of Technology‹ – dadurch 299 richtig und wünschenswert empfunden werden kann«[30].
319 aus, dass er Technologien nicht nur analysiert und kritisiert. Vielmehr legt das 300 Dabei gibt es Handlungsbereiche, die spezifische
320 Value Sensitive Design den Fokus darauf, wie Technologien »in moral and ethic 301 ethische Probleme hervorbringen, welche nur in ihrem jeweiligen konkreten Kontext
321 ways«[30] konzipiert und umgesetzt 302 gelöst werden können.
322 werden können. Auf Basis von Value Sensitive Design kann also einerseits 303 Um diese Probleme zu adressieren, haben sich verschiedene Bereichsethiken entwickelt,
323 systematisch analysiert werden, welche Werte in eine bestimmte Technologie 304 beispielsweise die
324 eingeschrieben sind. Andererseits bietet der Ansatz darüber hinaus aber auch ein 305 Informations-, die Technik-, die Medien- und die Computerethik. Diese Bereichsethiken
325 »overarching theoretical and methodological framework«,[31] um Technologien 306 sind nicht scharf
326 wertesensitiv zu entwickeln, also die Werte aller betroffenen Akteur*innen im 307 voneinander abgrenzbar und haben viele Berührungspunkte.[31]
327 gesamten Design-Prozess zu reflektieren und zu berücksichtigen. Dazu sieht Value 308 [17]Um ethische Probleme in den Digital Humanities zu diskutieren, kann vor allem an Ansätze
309 der Informations-
310 und Technikethik angeknüpft werden. Die Informationsethik befasst sich mit ethischen
311 Fragestellungen,
312 die im Zusammenhang mit Informations- und Kommunikationstechnologien[32] und »aus den Anwendungen des Internets,
313 des Informationsmanagements und der Computernutzung insgesamt hervorgehen«[33] – und damit also mit den
314 Technologien, die in den DH genutzt und entwickelt werden (vgl. Kapitel 3). Im Fokus steht dabei, wie
315 sich Informations- und Kommunikationstechnologien auf Umwelt und Gesellschaft auswirken.[34]
316 Als zentrale Grundwerte der Informationsethik identifiziert Rösch Informationsfreiheit,
317 Informationsgerechtigkeit,
318 Privatheit, Geistiges Eigentum, Informationsqualität und Informationsökologie.[35]
319 [18]Darüber hinaus sind in den Digital Humanities auch ethische Aspekte von Bedeutung,
320
321 die im Zusammenhang mit der sozialen Praxis, der Genese und der Einbettung von
322 Technologien entstehen. Diese sind Gegenstand der Technikethik:
323 Deren Aufgabe ist es, ethische Aspekte, die durch technische Innovationen
324 und den »wissenschaftlich-technischen Fortschritt[…]«[36] entstehen, zu
325 reflektieren und Entscheidungen über Technik auf Basis ethischer Argumente
326 zu ermöglichen. Technikethik beschäftigt sich auch mit der »sozialen Praxis
327 der Technik und ihrer Einbettung, der Praxis der Genese technischer Produkte
328 und Technologien«[37]. Anders als bei der Informationsethik gehen die zentralen
329 Werte der Technikethik dabei deutlich über den Bezugsrahmen der Technik selbst
330 hinaus und umfassen neben Effektivität, Effizienz und Sicherheit auch Gesundheit,
331
332 menschliches Wohlbefinden, (ökologische) Nachhaltigkeit, Gerechtigkeit, Demokratie,
333
334 Inklusivität[38] und
335 Geschlechtergerechtigkeit.[39]
336 [19]In der Informations-, der Technik- und der Computerethik haben sich verschiedene Methoden
337 und
338 Frameworks entwickelt, um die ethische Gestaltung von Projekten und Technologien zu
339 unterstützen,
340 beispielsweise Embedded Ethics oder Partizipatives Design.[40] Kern
341 des Embedded-Ethics-Ansatzes ist es, eine oder mehrere Ethiker*innen an allen Entscheidungen
342 im
343 gesamten Verlauf eines Projektes zu beteiligen.[41] Das Konzept des Partizipativen Designs legt hingegen den Fokus darauf, potentielle
344
345 Nutzer*innen in den Design-Prozess einzubinden.[42]
346 [20]Einen Schwerpunkt auf Informations- und Kommunikationstechnologien legt der Ansatz
347
348 des Value Sensitive Design,[43] der von Batya Friedman bereits in den 1990er-Jahren
349 entwickelt wurde[44] und sowohl in der Technik-,
350 als auch in der Informationsethik eine bedeutende Rolle spielt.[45] Friedman et al.
351 kritisierten, dass die Forschung zur ethischen Gestaltung von Technologien bislang
352 lediglich
353 einzelne Werte wie Privatsphäre, Autonomie oder informierte Einwilligung in den
354 Blick genommen hatte.[46] Daher schlagen sie mit Value Sensitive Design ein »overarching
355 theoretical and methodological framework«[47] vor, mit dem einerseits systematisch
356 analysiert werden kann, welche Werte in eine bestimmte Technologie eingeschrieben
357
358 sind. Zugleich ermöglicht das Framework,
359 Technologien wertesensitiv zu entwickeln, indem die Werte aller betroffenen
360 Akteur*innen im gesamten Design-Prozess reflektiert und berücksichtigt werden.[48]
361 [21]Mit Value Sensitive Design können Forscher*innen Technologien und ihre Anwendung also
362
363 nicht nur ethisch reflektieren, sondern auch im Sinne normativer Ethik »verändernd,
364 regulierend«[49]
365 auf die Entwicklung von Technologien und deren Rahmenbedingungen einwirken.
366 Seit seiner Entstehung vor über 30 Jahren wurde der Value-Sensitive-Design-Ansatz
367
368 stetig weiterentwickelt und in unterschiedlichen Bereichen angewendet, u. a. in
369 der Informationstechnologie, der Informatik, der Philosophie, der Gesundheitstechnologie
370
371 und der Pädagogik.[50]
372
373 5. Value Sensitive Design: Grundlagen und methodisches Vorgehen
374
375 [22]Um Technologien wertebasiert zu entwickeln sieht Value
328 Sensitive Design eine integrative und iterative Methodologie mit drei 376 Sensitive Design eine integrative und iterative Methodologie mit drei
329 Untersuchungs-Abschnitten vor: den konzeptionellen 377 Untersuchungsabschnitten vor: den konzeptionellen
330 Überlegungen, den empirischen 378 Überlegungen, den empirischen
333 381
334 382 5.1 Drei Untersuchungsabschnitte von Value Sensitive Design
335 383
336 4.1 Drei Untersuchungsabschnitte von 384 [23]In den konzeptionellen Überlegungen wird herausgearbeitet, um welche
337 Value Sensitive Design 385 zentralen Themen, Technologien und Werte es
338 386 geht (siehe auch Beispiele in Kapitel 5.2). Im Mittelpunkt
339 [16]In den konzeptionellen 387 stehen dabei die Fragen:
340 Überlegungen wird herausgearbeitet, um welche zentralen Themen, 388
341 Technologien und Werte es geht. Im Mittelpunkt stehen dabei die Fragen: 389
342 390 Welche Technologie wird analysiert oder gestaltet?
343 Welch Technologie wird analysiert oder gestaltet?
344 Welche Stakeholder sind direkt oder indirekt von der jeweiligen 391 Welche Stakeholder sind direkt oder indirekt von der jeweiligen
345 Technologie betroffen? 392 Technologie betroffen?
393
346 Welche Werte und Wertkonflikte spielen eine Rolle? 394 Welche Werte und Wertkonflikte spielen eine Rolle?
347 395
348 [17]Besonders am 396 [24]Zentral ist im Value Sensitive Design dabei der Stakeholder-Begriff: Dieser bezieht – anders als der Begriff
349 Value-Sensitive-Design-Ansatz ist dabei der Stakeholder-Begriff: Dieser bezieht – anders als der 397 User – auch diejenigen Akteur*innen mit ein,
350 Begriff User – auch diejenigen 398 die zwar nicht direkt mit der Technologie interagieren, auf die sich die
351 Akteur*innen mit ein, die zwar nicht direkt mit der Technologie interagieren, 399 Technologie aber dennoch auswirkt: die sogenannten indirekten
352 auf die sich die Technologie aber dennoch auswirkt: die sog. indirekten Stakeholder. Akteur*innen, 400 Stakeholder. Akteur*innen, die direkt mit der jeweiligen
353 die direkt mit der jeweiligen Technologie interagieren, werden dagegen als direkte Stakeholder verstanden. 401 Technologie interagieren, werden dagegen als direkte
354 Stakeholder können dabei sowohl Individuen, Gruppen, Organisationen und 402 Stakeholder verstanden. Stakeholder können dabei sowohl
355 Gesellschaften als auch zukünftige Generationen sein. In den konzeptionellen 403 Individuen, Gruppen, Organisationen und Gesellschaften als auch
356 Überlegungen wird also analysiert, welche Stakeholder direkt oder indirekt von 404 zukünftige Generationen sein. In den konzeptionellen Überlegungen wird
357 der jeweiligen Technologie betroffen sind und auf welche Weise.[32] 405 also analysiert, welche Stakeholder direkt oder indirekt von der
358 [18]Auch die Werte und Wertkonflikte, die 406 jeweiligen Technologie betroffen sind und auf welche Weise.[51]
359 im Kontext der Technologie eine Rolle spielen, werden im Rahmen der 407 [25]Auch die Werte und Wertkonflikte, die im Kontext der Technologie eine
360 konzeptionellen Untersuchungen expliziert und konkret beschrieben. Ein Wert ist 408 Rolle spielen, werden im Rahmen der konzeptionellen Untersuchungen
361 dabei, »what a person or group of people consider important in life«.[33] Da der Value-Sensitive-Design-Ansatz den Werte-Begriff damit sehr 409 expliziert und konkret beschrieben. Ein Wert ist dabei, »what a
362 weit fasst, sieht er vor, auf Basis von Literatur und bisheriger Forschung zu 410 person or group of people consider important in life«[52]. Da der
363 spezifizieren, was genau unter einem bestimmten Wert im jeweiligen Kontext 411 Value-Sensitive-Design-Ansatz den Werte-Begriff damit sehr weit fasst,
364 verstanden wird.[34] Als Ausgangspunkt 412 sieht er vor, auf Basis von Literatur und bisheriger Forschung zu
365 bieten Friedman und Hendry hierfür eine Liste mit 13 Werten, die beim Design 413 spezifizieren, was genau unter einem bestimmten Wert im jeweiligen
366 technischer Systeme oft eine Rolle spielen und von ethischer Bedeutung sind: 414 Kontext verstanden wird.[53] Als Ausgangspunkt bieten Friedman
367 415 und Hendry hierfür eine Liste mit 13 Werten, die beim Design technischer
368 menschliches Wohlergehen, 416 Systeme oft eine Rolle spielen und von ethischer Bedeutung sind.
369 Eigentum und Besitz, 417 Die Autor*innen weisen aber ausdrücklich darauf hin, dass diese
370 Freiheit von Bias, 418 Liste nicht vollständig ist.[54] Die Liste umfasst:
371 Privatsphäre, 419
372 Vertrauen, 420 »Human welfare«
373 Autonomie, 421 »Ownership and property«
374 Usability, 422 »Privacy«
375 informierte Einwilligung, 423 »Freedom from bias«
376 Verantwortung, 424 »Universal Usability «
377 Identität, 425 »Trust«
378 Verbindlichkeit, 426 »Autonomy«
379 Identität, 427 »Informed consent«
380 Gelassenheit, 428 »Accountability«
381 ökologische Nachhaltigkeit. 429 »Courtesy«
382 430 »Identity«
383 [19]Die Autor*innen weisen aber 431 »Calmness«
384 ausdrücklich darauf hin, dass diese Liste nicht vollständig ist.[35] 432 »Environmental sustainability«[55]
385 [20]Im Rahmen der empirischen 433
386 Untersuchungen wird mittels qualitativer und quantitativer Methoden 434
387 untersucht, wie die betroffenen Akteur*innen die jeweiligen Werte im Kontext der 435 [26]Human welfare meint beispielsweise körperliches und psychisches Wohlbefinden.
388 Technologie bewerten und welche Prioritäten sie bei Wertkonflikten setzen. 436 Der Wert Courtesy bezieht sich darauf, Akteur*innen mit Höflichkeit
389 Dieser Teilbereich des Value Sensitive Design sieht darüber hinaus vor, zu einem 437 und Rücksichtnahme zu begegnen. Identity beschreiben Friedman und
390 späteren Zeitpunkt im Design-Prozess empirisch zu prüfen, inwiefern die 438 Hendry als »people’s understanding of who they are over time, embracing
391 Technologie die entsprechenden Werte in der Anwendung tatsächlich fördert. 439 both continuity and discontinuity«[56]. Leider kann an dieser Stelle keine
392 [21]Die technischen Investigationen 440 ausführliche Diskussion der Werte erfolgen, die Friedman und Hendry aufzählen.
393 haben ebenfalls zwei Aufgaben: Erstens, zu analysieren, wie sich bestimmte 441 Eine Kurzdefinition und ausführliche Literaturhinweise finden sich aber zu jedem
394 bereits existierende Charakteristika einer Technologie auf verschiedene Werte 442 der Werte bei Friedman et al.[57]
395 auswirken. Zweitens wird in den technischen Investigationen überlegt, wie die 443 [27]Wie oben erwähnt ist bei Value Sensitive Design jedoch entscheidend,
396 Technologie so gestaltet werden kann, dass sie die Werte unterstützt, die in den 444 dass auf Basis von Literatur herausgearbeitet wird, was unter einem
397 konzeptionellen und empirischen Untersuchungen herausgearbeitet wurden.[36] Friedman und Hendry 445 bestimmten Wert im Kontext einer konkreten Technologie verstanden wird.[58]
398 betonen dabei, dass Technologien eng mit den sozialen Strukturen verknüpft sind, 446 Eine umfängliche Konzeptualisierung der Werte, die in den Digital Humanities
399 in die sie eingebettet sind. Um bestimmte Werte zu fördern, muss daher nicht in 447 eine Rolle spielen, kann also nicht unabhängig vom konkreten Kontext der
400 jedem Fall das technische Design angepasst werden. Eine Lösung kann auch darin 448 jeweiligen Technologie geleistet werden. In Kapitel 5 wird gezeigt, dass
401 bestehen, Policies oder soziale Strukturen zu verändern.[37] 449 in den Digital Humanities über die hier genannten Werte hinaus beispielsweise
402 [22]Die drei Untersuchungs-Abschnitte sind 450 auch Geschlechtergerechtigkeit, Barrierefreiheit, globale Gerechtigkeit im Sinne
403 nicht voneinander unabhängig, sondern beeinflussen sich wechselseitig. Die 451 von Teilhabe und Freiheit von Diskriminierung[59], aber auch die in der
404 Reihenfolge der Untersuchungsabschnitte ist daher nicht vorab festgelegt; 452 Informationsethik zentralen Werte Informationsfreiheit und -gerechtigkeit
405 vielmehr ist eine iterative Wiederholung der Investigationen vorgesehen (vgl. Abbildung 453 eine Rolle spielen.
406 1).[38] 454
407 455 [28]Im zweiten Untersuchungsabschnitt, den empirischen Untersuchungen, wird
408 456 mittels qualitativer und quantitativer Methoden analysiert, wie die
409 457 betroffenen Akteur*innen die jeweiligen Werte im Kontext der Technologie
410 458 bewerten und welche Prioritäten sie bei Wertkonflikten setzen (siehe
459 auch Beispiele in Kapitel 5.2). Dieser Teilbereich des Value
460 Sensitive Design sieht darüber hinaus vor, zu einem späteren Zeitpunkt
461 im Design-Prozess empirisch zu prüfen, inwiefern die Technologie die
462 entsprechenden Werte in der Anwendung tatsächlich fördert.
463
464 [29]Die technischen Investigationen haben ebenfalls zwei Aufgaben: Erstens,
465 zu analysieren, wie sich bestimmte bereits existierende Charakteristika
466 einer Technologie auf verschiedene Werte auswirken. Zweitens wird in den
467 technischen Investigationen überlegt, wie die Technologie so gestaltet
468 werden kann, dass sie die Werte unterstützt, die in den konzeptionellen
469 und empirischen Untersuchungen herausgearbeitet wurden (siehe auch
470 Beispiele in Kapitel 5.2).[60] Friedman und Hendry betonen dabei,
471 dass Technologien eng mit den sozialen Strukturen verknüpft sind, in die
472 sie eingebettet sind. Um bestimmte Werte zu fördern, muss daher nicht in
473 jedem Fall das technische Design angepasst werden. Eine Lösung kann auch
474 darin bestehen, Policies oder soziale Strukturen zu verändern.[61]
475 [30]Die drei Untersuchungsabschnitte sind nicht voneinander unabhängig,
476 sondern beeinflussen sich wechselseitig. Die Reihenfolge der
477 Untersuchungsabschnitte ist daher nicht vorab festgelegt; vielmehr ist
478 eine iterative Wiederholung der Investigationen vorgesehen (vgl. Abbildung 1).[62]
411 479
416 484
417 485 5.2 Anwendung von Value Sensitive Design: Zwei Beispiele
418 486
419 487 [31]So weit, so theoretisch: Wie aber sieht es mit
420 4.2 Anwendung von Value Sensitive 488 Value-Sensitive-Design-Analyse in der Praxis aus?
421 Design am Beispiel ›Room with a view‹ 489 Im Folgenden werden zwei Projekte vorgestellt, die eine Technologie auf Basis von
422 490 Value Sensitive Design entwickelt haben.
423 [23]So weit, so theoretisch: Wie aber sieht 491
424 eine Value-Sensitive-Design-Analyse in der Praxis aus? Um dies zu zeigen, wird 492 5.2.1 ›Room with a view‹: Virtuelle Fenster in Büroräumen
425 im Folgenden vorgestellt, wie Friedman et al. das Projekt ›Room with a view‹ mit 493
426 Value Sensitive Design begleiteten. In dem Projekt ging es darum, in 494 [32]In dem Projekt ›Room with a view‹ ging es darum, in fensterlosen Büroräumen Bildschirme
427 fensterlosen Büroräumen Bildschirme aufzustellen, auf denen eine 495 aufzustellen, auf denen
428 Live-Übertragung des Platzes vor dem Bürogebäude zu sehen war.[39] 496 eine Live-Übertragung des Platzes vor dem Bürogebäude zu sehen war. Friedman et al.
429 [24]In den konzeptionellen Überlegungen 497 begleiteten das
430 stellten Friedman et al. die These auf, dass der Blick auf ein ›virtuelles 498 Projekt mit Value Sensitive Design.[63]
431 Fenster‹ – also die Live-Übertragung einer Straßenszene auf Plasma-Bildschirme – 499 [33]In den konzeptionellen Überlegungen stellten Friedman et al. die These
432 die Gesundheit, das Wohlbefinden und die Kreativität der Beschäftigten steigert. 500 auf, dass der Blick auf ein ›virtuelles Fenster‹ – also die
433 Basis dafür waren verschiedene psychologische Studien, die zeigen, dass der 501 Live-Übertragung einer Straßenszene auf Plasma-Bildschirme – die
434 Blick auf Natur-Szenen positive physiologische und psychologische Auswirkungen 502 Gesundheit, das Wohlbefinden und die Kreativität der Beschäftigten
435 hat und beispielsweise Stress und Krankheiten reduziert.[40] Direkte Stakeholder der Technologie sind also die Beschäftigten in 503 steigert. Basis dafür waren verschiedene psychologische Studien, die
436 den fensterlosen Büroräumen, deren Werte Gesundheit und Kreativität gefördert 504 zeigen, dass der Blick auf Natur-Szenen positive physiologische und
437 werden sollen. Die ›virtuellen‹ Fenster haben aber auch Auswirkungen auf 505 psychologische Auswirkungen hat und beispielsweise Stress und
438 Personen, die sich auf dem Platz vor dem Bürogebäude aufhalten: Sie werden 506 Krankheiten reduziert.[64] Direkte Stakeholder
439 gefilmt und auf den Bildschirmen in den Büros abgebildet. Sie sind damit 507 der Technologie sind also die Beschäftigten in den fensterlosen
440 indirekte Stakeholder der Technologie. Die Live-Übertragung des Platzes auf 508 Büroräumen, deren Werte Gesundheit und Kreativität gefördert werden
441 Bildschirme in den Bürogebäuden könnte damit die Gefährdung der Privatsphäre der 509 sollen. Die ›virtuellen‹ Fenster haben aber auch Auswirkungen auf
442 indirekten Stakeholder mit sich bringen.[41] 510 Personen, die sich auf dem Platz vor dem Bürogebäude aufhalten: Sie
443 [25]Ausgehend von diesen konzeptionellen 511 werden gefilmt und auf den Bildschirmen in den Büros abgebildet. Sie
444 Überlegungen führten Friedman et al. verschiedene empirische Untersuchungen 512 sind damit indirekte Stakeholder der Technologie. Die Live-Übertragung
445 durch, um zu prüfen, inwiefern die Technologie der ›virtuellen Fenster‹ die 513 des Platzes auf Bildschirme in den Bürogebäuden könnte damit die
446 unterschiedlichen Werte der direkten und indirekten Stakeholder tatsächlich 514 Gefährdung der Privatsphäre der indirekten Stakeholder mit sich
447 fördert oder behindert. So untersuchten sie zunächst in einem experimentellen 515 bringen.[65]
448 Setting, welche Effekte ein Bildschirm, auf dem eine Straßenszene vor dem 516 [34]Ausgehend von diesen konzeptionellen Überlegungen führten Friedman et al.
449 Bürogebäude live übertragen wird, auf die Büroangestellten hat. Hierzu erhoben 517 verschiedene empirische Untersuchungen durch, um zu prüfen, inwiefern
450 die Forscher*innen verschiedene Parameter wie die Blickrichtung, den Puls und 518 die Technologie der ›virtuellen Fenster‹ die unterschiedlichen Werte der
451 verschiedene Leistungsdaten der Büroangestellten und führten anschließend 519 direkten und indirekten Stakeholder tatsächlich fördert oder behindert.
452 qualitative Interviews. Dabei kamen sie zu dem Ergebnis, dass die 520 So untersuchten sie zunächst in einem experimentellen Setting, welche
453 Live-Übertragung auf dem Bildschirm eine ähnlich erholsame Wirkung hat wie ein 521 Effekte ein Bildschirm, auf dem eine Straßenszene vor dem Bürogebäude
454 echtes Fenster. Einen größeren physiologischen Erholungseffekt wiesen echte 522 live übertragen wird, auf die Büroangestellten hat. Hierzu erhoben die
455 Fenster im Vergleich zu ›virtuellen Fenstern‹ nur dann auf, wenn die 523 Forscher*innen verschiedene Parameter wie die Blickrichtung, den Puls
456 Teilnehmenden länger als 30 Sekunden auf das jeweilige ›Fenster‹ blickten.[42] 524 und verschiedene Leistungsdaten der Büroangestellten und führten
457 [26]Zusätzlich untersuchten Friedman et al. 525 anschließend qualitative Interviews. Dabei kamen sie zu dem Ergebnis,
458 die Interessen der indirekten Stakeholder – also der Passant*innen auf dem Platz 526 dass die Live-Übertragung auf dem Bildschirm eine ähnlich erholsame
459 vor dem Bürogebäude –, indem sie diese zu ihrer Einstellung zu Privatsphäre im 527 Wirkung hat wie ein echtes Fenster. Einen größeren physiologischen
460 öffentlichen Raum allgemein und zur Live-Übertragung ihres Bildes auf die 528 Erholungseffekt wiesen echte Fenster im Vergleich zu ›virtuellen
461 Büro-Bildschirme befragten. Dabei wurde deutlich, dass die Passant*innen die 529 Fenstern‹ nur dann auf, wenn die Teilnehmenden länger als 30 Sekunden
462 Werte Privatsphäre, informierte Einwilligung und Sicherheit sehr hoch 530 auf das jeweilige ›Fenster‹ blickten.[66]
463 bewerteten. Mit dieser Vielfalt empirischer Methoden untersuchten die 531 [35]Zusätzlich untersuchten Friedman et al. die Interessen der indirekten
464 Forscher*innen also, welche Werte für die verschiedenen betroffenen Akteur*innen 532 Stakeholder – also der Passant*innen auf dem Platz vor dem Bürogebäude
465 im Kontext der ›Virtuelles Fenster‹-Technologie wichtig sind. Dabei wurde 533 –, indem sie diese zu ihrer Einstellung zu Privatsphäre im öffentlichen
466 deutlich, dass ein Wertkonflikt vorliegt: Während die Technologie die Werte der 534 Raum allgemein und zur Live-Übertragung ihres Bildes auf die
467 direkten Stakeholder steigert – also Gesundheit, Wohlbefinden und Kreativität –, 535 Büro-Bildschirme befragten. Dabei wurde deutlich, dass die Passant*innen
468 gefährdet sie die Werte der indirekten Stakeholder – Privatsphäre, Sicherheit 536 die Werte Privatsphäre, informierte Einwilligung und Sicherheit sehr
469 und informierte Einwilligung.[43] 537 hoch bewerteten. Mit dieser Vielfalt empirischer Methoden untersuchten
470 [27]Wie kann mit einem solchen 538 die Forscher*innen also, welche Werte für die verschiedenen betroffenen
471 Wertekonflikt umgegangen werden? In den technischen Investigationen empfehlen 539 Akteur*innen im Kontext der ›Virtuelles Fenster‹-Technologie wichtig
472 die Forscher*innen, Gebäude grundsätzlich mit Fenstern zu bauen, da der Blick 540 sind. Dabei wurde deutlich, dass ein Wertkonflikt vorliegt: Während die
473 auf eine Natur-Szene die Werte der Büroangestellten fördert und durch ›virtuelle 541 Technologie die Werte der direkten Stakeholder steigert – also
474 Fenster‹ nur teilweise ersetzt werden kann.[44] Um im Falle von 542 Gesundheit, Wohlbefinden und Kreativität –, gefährdet sie die Werte der
475 Gebäuden, die nun mal bereits ohne Fenster gebaut wurden, dennoch einen 543 indirekten Stakeholder – Privatsphäre, Sicherheit und informierte
476 positiven Effekt für Büroangestellte durch ›virtuelle Fenster‹ zu erzielen, ohne 544 Einwilligung.[67]
477 die Werte von Passant*innen auf dem Platz vor dem Bürogebäude als indirekte 545 [36]Wie kann mit einem solchen Wertekonflikt umgegangen werden? In den
478 Stakeholder zu gefährden, könnte darüber hinaus eine Natur-Szene auf den 546 technischen Investigationen empfehlen die Forscher*innen, Gebäude
479 Bildschirm übertragen werden, in der keine Menschen zu sehen sind. 547 grundsätzlich mit Fenstern zu bauen, da der Blick auf eine Natur-Szene
480 548 die Werte der Büroangestellten fördert und durch ›virtuelle Fenster‹ nur
481 549 teilweise ersetzt werden kann.[68] Um im Falle von Gebäuden, die
482 550 nun mal bereits ohne Fenster gebaut wurden, dennoch einen positiven
551 Effekt für Büroangestellte durch ›virtuelle Fenster‹ zu erzielen, ohne
552 die Werte von Passant*innen auf dem Platz vor dem Bürogebäude als
553 indirekte Stakeholder zu gefährden, könnte darüber hinaus eine
554 Natur-Szene auf den Bildschirm übertragen werden, in der keine Menschen
555 zu sehen sind.
483 556
486 Abb. 2: Beispiel für eine Natur-Szene, 559 Abb. 2: Beispiel für eine Natur-Szene,
487 auf der keine Menschen abgebildet werden. Eignet sich auch für ein kurzes 560 auf der keine Menschen abgebildet werden. Eignet sich auch für
488 Experiment: Entspannt Sie der Anblick dieser Natur-Szene? [Free Fotos 561 ein kurzes Experiment: Entspannt Sie der Anblick dieser
489 2016] 562 Natur-Szene? [Free Fotos 2016]
490 563
491 [28]Das Beispiel zeigt, wie die drei 564 [37]Das Beispiel macht deutlich, wie die drei Untersuchungsabschnitte des
492 Untersuchungs-Abschnitte des Value-Sensitive-Design-Ansatzes angewendet werden 565 Value-Sensitive-Design-Ansatzes angewendet werden können und, dass das
493 können und, dass das Einbeziehen der indirekten Stakeholder und deren Interessen 566 Einbeziehen der indirekten Stakeholder und deren Interessen bedeutsame
494 bedeutsame Implikationen für das Design einer Technologie haben kann. 567 Implikationen für das Design einer Technologie haben kann.
495 568 Um noch stärker zu verdeutlichen, wie auf Basis von Value Sensitive
496 569 Design konkrete Design-Anforderungen für die Gestaltung einer
497 570 Technologie formuliert werden können, wird im Folgenden ein zweites
498 571 Beispiel skizziert.
499 5. Value Sensitive Design in 572
500 Digital-Humanities-Projekten 573
501 574 5.2.2 Die Groupware CodeCOOP für den Wissensaustausch in Unternehmen
502 [29]Der Value-Sensitive-Design-Ansatz wurde 575
503 seit seiner Entstehung vor über 30 Jahrenstetig weiterentwickelt und in 576
504 unterschiedlichen Bereichen angewendet, u. a. in der Informationstechnologie, 577 [38]Die Entwicklung und Umsetzung des Groupware-Systems CodeCOOP begleiteten Miller
505 der Informatik, der Philosophie, der Gesundheitstechnologie und der Pädagogik.[45] In den Digital Humanities ist der Ansatz aber bisher wenig 578 et al. aus einer Value-Sensitive-Design-Perspektive. Das Groupware-System
506 rezipiert worden. Im Folgenden soll daher vorgestellt werden, wie Value 579 wurde mit dem Ziel entwickelt, den Austausch von Wissen unter den Mitarbeiter*innen
507 Sensitive Design in unterschiedlichen DH-Projekten angewendet werden kann. Für 580
508 jede Spielart der DH nach Roth und Burghardt werden dazu Anknüpfungspunkte für 581 des Software-Unternehmens LEO-R zu fördern. Mitarbeiter*innen sollten Informationen
509 Value Sensitive Design aufgezeigt. 582 und Code einfach und effizient über die Groupware miteinander teilen können.
510 583 Zu den Features des Groupware-Systems gehören u. a. Diskussionsforen, eine
511 584 Volltext-Suche und ein »code repository«[69]. Um zu gewährleisten, dass
512 585 Mitarbeiter*innen das System nach seiner Einführung tatsächlich nutzen, sollten
513 586 Wertkonflikte dabei von Anfang an erkannt und gelöst werden.[70]
514 5.1 Pre-Existing Bias in den 587 [39]In einem ersten Schritt untersuchten Miller et al. im Rahmen der konzeptionellen
515 Digitized Humanities abmindern 588 Investigationen, welche Stakeholder von dem Groupware-System betroffen sind.
516 589 Direkte Stakeholder sind die Mitarbeiter*innen des Software-Unternehmens LEO-R,
517 [30]Wie oben bereits ausgeführt, fasst 590 die direkt mit dem System interagieren.[71] Als indirekte Stakeholder identifizierten
518 Roth unter Digitized Humanities die Aktivitäten, die digitale 591 Miller et al. Manager*innen und Führungskräfte des Unternehmens. Anschließend
519 Datensätze in den Geistes- und Sozialwissenschaften erstellen, kuratieren 592 untersuchten die Autor*innen der Studie, welche potentiellen Vorteile und Gefahren
520 und nutzen, indem Texte, Bilder und Multimedia-Artefakte digitalisiert, 593
521 verarbeitet, verknüpft, verfügbar gemacht und visualisiert werden, 594 das Groupware-System für jede Stakeholder-Gruppe mit sich bringt und welche Werte
522 beispielsweise in Digitalen Archiven.[46] Diese Aktivitäten haben 595
523 direkte und indirekte Auswirkungen auf verschiedene Interessensgruppen und 596 dies betrifft. Auf Basis von Forschungsliteratur zu vergleichbaren Groupware-Systemen
524 deren Werte: So zeigen ethische und wissenschaftstheoretische 597
525 Untersuchungen, »dass bereits im Prozess der Datenformatierung als auch der 598 und in Zusammenarbeit mit einer Expert*innen-Gruppe aus Unternehmens-Mitarbeiter*innen
599
600 stellten Miller et al. fest, dass vor allem Reputation, Zusammenarbeit, Privatsphäre,
601
602 Anonymität, Vertrauen, und »awareness«[72] im Kontext des Systems eine Rolle spielen.[73]
603 [40]Im zweiten Abschnitt, den empirischen Investigationen, führten Miller et al.
604 eine anonyme Online-Befragung mit den Mitarbeiter*innen des Software-Unternehmens
605
606 durch. Dabei wurden die Mitarbeiter*innen gefragt, wie sie die Vor- und Nachteile
607
608 der Groupware und die damit verbundenen Werte einschätzen und gewichten. Darüber
609 hinaus planten Miller et al., Manager*innen und Führungskräfte des Software-Unternehmens
610
611 zu ihren Interessen und Werten zu befragen; diese sagten ihre Teilnahme an
612 Interviews jedoch aus Zeitgründen ab.[74] Die Autor*innen der Studie bemängeln
613 daher das unzureichende Einbeziehen der indirekten Stakeholder in ihrer
614 Value-Sensitive-Design-Analyse.[75]
615 [41]In den technischen Investigationen, dem dritten Abschnitt der
616 Value-Sensitive-Design-Analyse, übersetzten Miller et al. die
617 Werte und Interessen der Stakeholder in Design-Anforderungen für
618 die Groupware. Dazu nutzten sie die Methode der Value Dams and
619 Flows. Die Methode sieht vor, technische Funktionen und Policies zu
620 vermeiden, wenn sie von einem Teil der Stakeholder als sehr
621 problematisch bewertet werden. Solche Funktionen und Policies
622 werden als Value Dams bezeichnet. Value Dams werden bereits dann
623 ausgesprochen, wenn ein geringer Anteil der Stakeholder eine bestimmte
624 Funktion oder Policy stark ablehnt. Als Value Flows werden hingegen
625 technische Funktionen und Policies bezeichnet, die ein großer Teil der
626 Stakeholder als wünschenswert beurteilt. Sie werden in die Gestaltung
627 des Systems aufgenommen. Zwischen den Value Dams und Flows können
628 Konflikte entstehen, die systematisch adressiert und gelöst werden müssen.[76]
629 [42]Für das Groupware-System CodeCOOP legten Miller et al. fest, dass Features,
630 die mehr als die Hälfte der Umfrage-Teilnehmer*innen als deutlichen Vorteil
631 bewerteten, als Value Flows eingeordnet werden. So war mehr als 50% der
632 System-Nutzer*innen wichtig, zu sehen, mit welcher Häufigkeit eigene
633 Inhalte von anderen Mitarbeiter*innen genutzt werden. Ähnlich wichtig
634 war den Nutzer*innen, dass angezeigt wird, wie andere Nutzer*innen einzelne
635 Posts bewerten bzw. ranken. Diese Features definierten Miller et al.
636 daher als Value Flows, die im Design der Groupware umgesetzt werden
637 sollen, um die »awareness«[77] der System-Nutzer*innen zu unterstützen.[78]
638 [43]Zugleich sahen mehr als 11% der Teilnehmer*innen der Online-Befragung
639 einen deutlichen Eingriff in ihre Privatsphäre, wenn geloggt wird,
640 welche Fragen sie in den Diskussionforen posten und welche Suchanfragen
641 sie stellen. Um die Privatsphäre der System-Nutzer*innen zu schützen,
642 legten Miller et al. das Loggen von Fragen und Suchanfragen als Value
643 Dams fest. Damit entsteht ein Konflikt zwischen der Förderung der
644 »awareness« der Mitarbeiter*innen und dem Schutz ihrer Privatsphäre.
645 Miller et al. formulierten daher die Designanforderung, dass zwar
646 angezeigt wird, wie oft einzelne Inhalte genutzt und wie sie gerankt
647 wurden; dass dabei aber nicht sichtbar ist, wer den Inhalt gesucht,
648 genutzt oder gerankt hat.[79]
649 [44]Schließlich formulierten Miller et al. auch für die Unternehmens-Policies
650 in Bezug auf das Groupware-System Value Dams und Flows, denn
651 »groupware systems do not exist independent of complex social systems«[80].
652 So gaben über 70% der Teilnehmer*innen der Online-Befragung an,
653 dass sie es als deutlichen Vorteil ansehen, wenn das Beantworten
654 von Fragen und Beitragen von Code ihre Reputation im Unternehmen
655 stärkt. Zugleich nahmen 13% der Befragten als Gefahr war, dass
656 sich ihre Reputation verschlechtern könnte, wenn sie inkorrekte
657 Antworten oder fehlerhaften Code in der Groupware posten. Diesen
658 Wertkonflikt lösten Miller et al., indem sie empfahlen, dass der
659 Beitrag zum Groupware-System ausschließlich dann in die jährliche
660 Evaluation der Mitarbeiter*innen einfließt, wenn die Bewertung
661 positiv ausfällt.[81]
662 [45]Das hier vorgestellte Groupware-System wurde zwar im Kontext
663 eines Unternehmens entwickelt; zugleich können Informationssysteme,
664 die den Austausch von Wissen, die Dokumentation von Code und die
665 Zusammenarbeit verschiedener Akteur*innen fördern, auch im Kontext
666 der Digital Humanities eine zentrale Rolle spielen.
667
668
669
670
671 6. Value Sensitive Design in Digital-Humanities-Projekten
672
673 [46]In den Digital Humanities
674 ist der Ansatz aber bisher nach Kenntnis der Autorin nicht rezipiert worden. Im Folgenden
675 soll daher
676 vorgestellt werden, wie Value Sensitive Design in unterschiedlichen
677 DH-Projekten angewendet werden kann. Für jede Spielart der DH nach Roth und
678 Burghardt werden dazu Anknüpfungspunkte für Value Sensitive Design
679 aufgezeigt.
680
681 6.1 Pre-Existing Bias in den Digitized Humanities abmindern
682
683 [47]Wie oben bereits ausgeführt, fasst Roth unter Digitized Humanities die
684 Aktivitäten, die digitale Datensätze in den Geistes- und
685 Sozialwissenschaften erstellen, kuratieren und nutzen, indem Texte,
686 Bilder und Multimedia-Artefakte digitalisiert, verarbeitet, verknüpft,
687 verfügbar gemacht und visualisiert werden, beispielsweise in digitalen
688 Archiven.[82] Diese Aktivitäten haben direkte und
689 indirekte Auswirkungen auf verschiedene Interessensgruppen und deren
690 Werte: So zeigen ethische und wissenschaftstheoretische Untersuchungen,
691 »dass bereits im Prozess der Datenformatierung als auch der
526 weiteren Verarbeitung von Daten und der aus ihnen gezogenen 692 weiteren Verarbeitung von Daten und der aus ihnen gezogenen
527 Schlussfolgerungen mannigfaltige Wertentscheidungen getroffen werden«.[47] Der Value-Sensitive-Design-Ansatz kann in den Digitized 693 Schlussfolgerungen mannigfaltige Wertentscheidungen getroffen
528 Humanities also genutzt werden, um bei der Zusammenstellung digitaler 694 werden«.[83]
529 Datensätze und beim Aufbau Digitaler Archive und Infrastrukturen die 695 [48]Direkte Stakeholder von Technologien, die in den Digitized Humanities
530 Interessen aller betroffenen Stakeholder zu beachten.[48] Dadurch kann verhindert werden, dass Pre-Existing Bias 696 erstellt und genutzt werden, sind einerseits diejenigen, die an
531 reproduziert wird – oder sogar dazu beigetragen werden, diesen abzumindern. 697 DH-Projekten und -Infrastrukturen mitwirken und diese gestalten,
532 Zur Verdeutlichung folgen einige Beispiele, wie Value Sensitive Design in 698 beispielsweise DH-Forscher*innen, Bibliotheksmitarbeiter*innen und
533 Digitized Humanities-Projekten dazu beitragen kann, Diskriminierung auf 699 IT-Dienstleister*innen. Aber auch die Nutzer*innen von DH-Infrastrukturen
534 Basis von kolonialen Machtstrukturen, binären Geschlechtszuschreibungen und 700 sind direkte Stakeholder der Technologien in den Digitized Humanities,
535 körperlichen Fähigkeiten zu lindern. 701 indem sie beispielsweise aus wissenschaftlichem oder privaten
536 702 Interesse die Inhalte nutzen, die digitale Archive und Bibliotheken
537 703 bereitstellen. Als indirekte Stakeholder der Technologien in den
538 704 Digitized Humanities können darüber hinaus all jene verstanden
539 5.1.1 Digitale Archive 705 werden, die in den Texten, Bildern und Multimedia-Artefakten der
540 postkolonial gestalten 706 DH-Projekte und -Infrastrukturen abgebildet werden – genauso
541 707 wie jene Gruppen, die in diesen Projekten und Infrastrukturen
542 [31]Digitale Archive können koloniale 708 eben nicht repräsentiert werden. Im Folgenden wird gezeigt,
543 Machtstrukturen reproduzieren. Das macht Risam am Beispiel der Networked Infrastructure for 709 dass die Werte, die in den Digitized Humanities eine Rolle
544 Nineteenth-Century Electronic Scholarship (NINES) deutlich: Das 710 spielen, unter anderem Geschlechtergerechtigkeit, Barrierefreiheit,
545 Projekt dient der Vernetzung von DH-Projekten zum 19. Jahrhundert in den USA 711 globale Gerechtigkeit im Sinne von Teilhabe und Freiheit von
546 und Großbritannien, indem es über 900.000 [49] Projekte, 712 Diskriminierung[84] umfassen.
547 Publikationen und digitale Sammlungen zusammenstellt, zentral durchsuchbar 713
548 macht und Qualitätssicherung durch Peer Review anbietet. NINES ist damit 714 [49]Der Value-Sensitive-Design-Ansatz
549 eine bedeutende Infrastruktur in den Digital Humanities. Die Autor*innen, 715 kann in den Digitized Humanities also genutzt werden, um bei der
550 die in NINES zu finden sind, sind allerdings eine »narrowly prescribed group 716 Zusammenstellung digitaler Datensätze und beim Aufbau digitaler Archive
551 of primarily white writers«.[50] Texte Schwarzer und indigener 717 und Infrastrukturen die Interessen aller betroffenen Stakeholder zu
552 Autor*innen sind hingegen stark unterrepräsentiert. Zudem sind 718 beachten.[85] Dadurch kann verhindert
553 englischsprachige Texte, die im 19. Jahrhundert in den von Großbritannien 719 werden, dass Pre-Existing Bias reproduziert wird – oder sogar dazu
554 kolonialisierten Gebieten entstanden sind, nicht zu finden. Thematisiert 720 beigetragen werden, diesen abzumindern. Zur Verdeutlichung folgen einige
555 wird dieser Mangel auf der Projektseite nicht. [51] NINES schreibt damit 721 Beispiele, wie Value Sensitive Design in Digitized Humanities-Projekten
556 »colonial dynamics of knowledge production«[52] fort, durch die 722 dazu beitragen kann, Diskriminierung auf Basis von kolonialen
557 »colonial violence«[53] in der 723 Machtstrukturen, binären Geschlechtszuschreibungen und körperlichen
558 Digital-Humanities-Forschung reproduziert wird. 724 Fähigkeiten zu lindern.
559 [32]Risam fordert daher, Digitale 725
560 Archive postkolonial zu gestalten und koloniale Formen der Wissensproduktion 726 6.1.1 Gender Bias ausgleichen
561 zu überwinden. Dafür kann Value Sensitive Design als Ausgangspunkt dienen: 727
562 So sieht der Ansatz vor, bei der Identifikation der Stakeholder – also 728 [50]Digitale Datensätze, die in den DH erstellt, kuratiert und genutzt werden,
563 derjenigen, die direkt oder indirekt von einer Technologie betroffen sind – 729 entstehen meist auf Basis bereits vorhandener Sammlungen, beispielsweise
564 besonders Individuen und Gruppen zu berücksichtigen, die von Diskriminierung 730 von Bibliotheken und Archiven. Zentral ist daher für die ethische
565 betroffen sind.[54] Damit können 731 Gestaltung von Projekten in den Digitized Humanities, zu Beginn zu
566 die Interessen und Werte von Personen, die von rassistischer oder 732 analysieren, inwiefern die Datenbasis des jeweiligen Projekts einen
567 (neo-)kolonialer Diskriminierung betroffen sind, im Rahmen von empirischen 733 Bias aufweist.[86] So weisen beispielsweise die Bestände von Archiven
568 Untersuchungen erhoben und aktiv in das Design von Digitalen Archiven und 734 meist einen Gender Bias auf. So konstatiert
569 Infrastrukturen einbezogen werden. 735 Buettner für die Monacensia im Hildebrandhaus,
570 736 dem Literaturarchiv der Stadtbibliothek München:
571 737
572 738 [51]»Mit einem Blick auf die Archivbestände der
573 5.1.2 Gender Bias ausgleichen
574
575
576 [33]Darüber hinaus weisen die Bestände
577 von Archiven – und damit die Basis für digitale Datensätze – meist einen
578 Gender Bias auf. So konstatiert Buettner für die Monacensia im Hildebrandhaus, dem
579 Literaturarchiv der Stadtbibliothek München:
580
581 »Mit einem Blick auf die Archivbestände der
582 Monacensia stellen wir fest, dass sich das literarische Gedächtnis 739 Monacensia stellen wir fest, dass sich das literarische Gedächtnis
583 bislang einseitig aus Erinnerungen von Männern speist. Das 740 bislang einseitig aus Erinnerungen von Männern
584 künstlerische Werk von Frauen ist in der Vergangenheit landauf landab 741 speist. Das künstlerische Werk von Frauen ist in der Vergangenheit
585 als weniger relevant eingeschätzt worden. […] Das literarische 742 landauf landab als weniger relevant eingeschätzt worden. […] Das
586 Gedächtnis der Stadt München reproduziert so – genau wie viele 743 literarische Gedächtnis der Stadt München reproduziert so – genau
587 Museumssammlungen, Theaterspielpläne, Verlags-, Radio- und 744 wie viele Museumssammlungen, Theaterspielpläne, Verlags-, Radio- und
588 Ausstellungsprogramm [sic!] – eine unvollständige Wirklichkeit.«[55] 745 Ausstellungsprogramm [sic!] – eine unvollständige
589 746 Wirklichkeit.«[87]
590 [35]Bei der Erstellung digitaler 747 [52]Bei der Erstellung digitaler Datensätze und Archive gilt es also, diesen
591 Datensätze und Archive gilt es also, diesen Pre-Existing Gender Bias so gut 748 Pre-Existing Gender Bias so gut wie möglich auszugleichen. Auf Basis von
592 wie möglich auszugleichen. Auf Basis von Value Sensitive Design können dabei 749 Value Sensitive Design können bei der Erstellung digitaler Datensätze
593 u. a. im Rahmen der technischen Investigationen Lösungsansätze gesucht 750 auf Basis von Archiven wie der Monacensia in einem ersten Schritt –
594 werden, um Daten von und über Frauen in ausreichender Quantität und Qualität 751 den konzeptionellen Überlegungen – die betroffenen Stakeholder und
595 in den Datensatz bzw. das Digitale Archiv aufzunehmen – oder, sollte dies 752 Stakeholder-Gruppen identifiziert werden. Neben den Mitarbeiter*innen
596 nicht möglich sein, Frauen trotz der strukturellen Unterrepräsentation im 753 des Archivs bzw. des DH-Projekts können auch die Nutzer*innen der
597 Datensatz sichtbar zu machen. Die Monacensia im Hildebrandhaus rief 754 Monacensia als direkte Stakeholder begriffen werden. Eine bedeutende
598 beispielsweise das mehrjährige partizipative Kulturerbeprojekt 755 Gruppe indirekter Stakeholder sind hingegen Frauen im Allgemeinen und
599 #femaleheritage ins Leben, »um die literarischen Texte und 756 Akteurinnen des literarischen Lebens in München im Besonderen: Sie
757 sind in den Beständen der Monacensia unterrepräsentiert, sodass ihre
758 Werte Teilhabe und Repräsentation gefährdet sind.
759
760 [53]In einem zweiten Schritt, den empirischen Investigationen, müsste
761 untersucht werden, welche Werte den verschiedenen Stakeholder-Gruppen
762 in Bezug auf das digitale Archiv tatsächlich wichtig sind. Dazu könnten
763 beispielsweise Akteurinnen des literarischen Lebens in München wie
764 Autorinnen und Literaturwissenschaftlerinnen im Rahmen von qualitativen
765 Interviews befragt werden. Auch die Werte der direkten Stakeholder-Gruppen,
766 also der Mitarbeiter*innen des Archivs bzw. des DH-Projekts und der
767 potentiellen Nutzer*innen des digitalen Archivs müssten im Rahmen
768 empirischer Untersuchungen erhoben werden, sodass potentiell auftretende
769 Wertkonflikte identifiziert werden können.
770
771 [54]Wie können die Werte Teilhabe und Repräsentation von Frauen gefördert werden,
772 wenn auf Basis von Archivbeständen mit Gender Bias ein digitaler Datensatz
773 oder ein digitales Archiv erstellt wird? Im Rahmen des dritten Analyseschritts,
774 den technischen Investigationen, werden Strategien entwickelt, um Daten von und über
775 Frauen in ausreichender Quantität und Qualität in den Datensatz bzw. das
776 digitale Archiv aufzunehmen – oder, sollte dies nicht möglich sein,
777 Frauen trotz der strukturellen Unterrepräsentation im Datensatz sichtbar
778 zu machen. Die Monacensia im Hildebrandhaus rief beispielsweise das
779 mehrjährige partizipative Kulturerbeprojekt #femaleheritage ins Leben, »um die literarischen Texte und
600 Dokumente von Frauen ins literarische Gedächtnis ein- bzw. 780 Dokumente von Frauen ins literarische Gedächtnis ein- bzw.
601 zurückzuschreiben«.[56] Das Projekt zeigt in Blogartikeln und 781 zurückzuschreiben«.[88] Das Projekt zeigt in Blogartikeln
602 Sonderausstellungen Archivlücken und Forschungsdesiderate zu Frauen in 782 und Sonderausstellungen Archivlücken und Forschungsdesiderate zu Frauen
603 München auf, erstellte ein Online-Dossier mit Dokumentarfilmen und Texten zu 783 in München auf, erstellte ein Online-Dossier mit Dokumentarfilmen und
604 jüdischen Schriftstellerinnen und sammelte in einer Blogparade über 200 784 Texten zu jüdischen Schriftstellerinnen und sammelte in einer Blogparade
605 Beiträge in Podcasts, Blogs und der Wikipedia, in denen Frauen im Kontext 785 über 200 Beiträge in Podcasts, Blogs und der Wikipedia, in denen Frauen
606 von Literatur, Kultur, Politik und Gesellschaft gewürdigt werden.[57] 786 im Kontext von Literatur, Kultur, Politik und Gesellschaft gewürdigt
607 787 werden.[89]
608
609
610
611 788
614 Zusammenstellung der knapp 200 Blogartikel, die im Kontext der 791 Zusammenstellung der knapp 200 Blogartikel, die im Kontext der
615 #femaleheritage-Blogparade entstanden sind. [Praske 2021] 792 #femaleheritage-Blogparade entstanden sind. [Praske
616 793 2021]
617 [36]Auch wenn die Moncacensia kein 794
618 DH-Projekt ist, zeigt das Beispiel, dass digitale und analoge Archiv- und 795 [55]Das Beispiel zeigt, dass Value Sensitive Design dazu beitragen kann,
619 Datenbestände Pre-existing Bias aufweisen können – und dass (nicht nur, aber 796 Pre-Existing Bias in Archiv- und Datenbeständen zu ermitteln und Strategien zu entwickelt,
620 auch auf Basis von Value Sensitive Design) Strategien entwickelt werden 797
621 können, um diesen abzumindern. 798 um diesen Bias in digitalen Datensätzen und Archiven
622 799 abzumindern.
623 800
624 5.1.3 Barrierefreiheit fördern 801
625 802 6.1.2 Digitale Archive postkolonial gestalten
626 803
627 [37]Schließlich kann auf Basis des 804 [56]Darüber hinaus können digitale Archive koloniale Machtstrukturen
628 Value-Sensitive-Design-Ansatzes auch sichergestellt werden, dass Digitale 805 reproduzieren. Das macht Risam am Beispiel der Networked Infrastructure for Nineteenth-Century Electronic
629 Archive und Infrastrukturen möglichst barrierefrei sind. Ein bedeutender 806 Scholarship (NINES) deutlich: Das Projekt dient der
630 Aspekt ist dabei die Gestaltung der Benutzeroberfläche: Diese sollte nach 807 Vernetzung von DH-Projekten zum 19. Jahrhundert in den USA und
631 den Prinzipien der Web 808 Großbritannien, indem es über 900.000[90] Projekte, Publikationen und
632 Accessibility so gestaltet sein, dass auch Personen mit 809 digitale Sammlungen zusammenstellt, zentral durchsuchbar macht und
633 visuellen, auditiven und physischen Einschränkungen das Online-Angebot 810 Qualitätssicherung durch Peer Review anbietet. NINES ist damit eine
634 nutzen können (ausführlicher hierzu Kapitel 5.4). Aber auch finanzielle Aspekte spielen für die 811 bedeutende Infrastruktur in den Digital Humanities. Die Autor*innen,
635 barrierearme Nutzung von und die Beteiligung an digitalen Archiven und 812 die in NINES zu finden sind, sind allerdings eine »narrowly
636 Infrastrukturen eine Rolle: So macht Rojas Castro darauf aufmerksam, dass 813 prescribed group of primarily white writers«[91]. Texte
637 Institutionen mit geringen finanziellen Ressourcen keine eigenen 814 Schwarzer und indigener Autor*innen sind hingegen stark
638 Digitalisate zu digitalen Infrastrukturen beitragen können, wenn sie ihre 815 unterrepräsentiert. Zudem sind englischsprachige Texte, die im 19.
639 Dokumente dafür zwingend mit einem kostenpflichtigen Persistenten 816 Jahrhundert in den von Großbritannien kolonialisierten Gebieten
640 Identifikator wie DOI oder Handle versehen müssen. Dies führt 817 entstanden sind, nicht zu finden. Thematisiert wird dieser Mangel
641 wiederum zu weiteren Verzerrungen: Wenn beispielsweise ressourcenarme 818 auf der Projektseite nicht.[92] NINES schreibt damit »colonial
642 Institutionen im globalen Süden eigene Digitalisate in zentralen 819 dynamics of knowledge production«[93] fort, durch die »colonial
643 DH-Infrastrukturen aus finanziellen Gründen nicht beitragen können, entsteht 820 violence«[94] in der
644 ein regionaler Bias.[58] Werden also 821 Digital-Humanities-Forschung reproduziert wird.
645 Value-Sensitive-Design-Überlegungen in die Gestaltung von digitalen 822
646 Infrastrukturen und deren Policies einbezogen, fördert dies den Abbau von 823 [57]Risam fordert daher, digitale Archive postkolonial zu gestalten und koloniale
647 Barrieren, weil die Interessen von Stakeholdern mit geringen finanziellen 824 Formen der Wissensproduktion zu überwinden. Dafür kann Value Sensitive
648 Ressourcen oder verschiedenen physischen Beeinträchtigungen berücksichtigt 825 Design als Ausgangspunkt dienen: So sieht der Ansatz vor, bei der
649 werden. 826 Identifikation der Stakeholder – also derjenigen, die direkt oder indirekt
650 827 von einer Technologie betroffen sind – besonders Individuen und Gruppen
651 828 zu berücksichtigen, die von Diskriminierung betroffen sind. Personen,
652 5.2 Design-Normen für 829 die von rassistischer und (neo-)kolonialer Diskriminierung betroffen
653 KI-Anwendungen in den Numerical Humanities 830 sind, können somit als Stakeholder von DH-Projekten wie NINES identifiziert
654 831 werden: Als Gruppe, die in den Inhalten der Infrastruktur NINES
655 [38]Anders als die Digitized Humanities 832 unterrepräsentiert ist, sind sie indirekte Stakeholder. Als Mitarbeiter*innen
656 legt die Spielart der Numerical Humanities den Schwerpunkt darauf, 833 oder Nutzer*innen von DH-Projekten wie NINES können sie zugleich aber auch
834 direkte Stakeholder sein. Mit Value Sensitive Design kann im Rahmen der
835 konzeptionellen und empirischen Untersuchungen zunächst geklärt werden,
836 welche verschiedenen Stakeholder-Gruppen konkret von der DH-Infrastruktur
837 betroffen sind, welche Werte die unterschiedlichen Stakeholdergruppen als
838 wichtig erachten und welche Wertkonflikte dabei entstehen. Auf Basis
839 dieser Analysen können die Werte von Stakeholder-Gruppen, die von
840 rassistischer und (neo-)kolonialer Diskriminierung betroffen sind,
841 aktiv in das Design von digitalen Archiven und Infrastrukturen
842 einbezogen werden.
843
844
845 6.1.3 Barrierefreiheit fördern
846
847 [58]Schließlich kann auf Basis des Value-Sensitive-Design-Ansatzes auch
848 sichergestellt werden, dass digitale Archive und Infrastrukturen
849 möglichst barrierefrei sind. Ein bedeutender Aspekt ist dabei die
850 Gestaltung der Benutzeroberfläche: Diese sollte nach den Prinzipien der
851 Web Accessibility so gestaltet sein, dass
852 auch Personen mit visuellen, auditiven und physischen Einschränkungen
853 das Online-Angebot nutzen können (ausführlicher hierzu Kapitel 6.4). Aber auch
854 finanzielle Aspekte spielen für die barrierearme Nutzung von und die
855 Beteiligung an digitalen Archiven und Infrastrukturen eine Rolle: So
856 macht Rojas Castro darauf aufmerksam, dass Institutionen mit geringen
857 finanziellen Ressourcen keine eigenen Digitalisate zu digitalen
858 Infrastrukturen beitragen können, wenn sie ihre Dokumente dafür zwingend
859 mit einem kostenpflichtigen Persistenten Identifikator wie DOI oder Handle versehen
860 müssen. Dies führt wiederum zu weiteren Verzerrungen: Wenn
861 beispielsweise ressourcenarme Institutionen im globalen Süden eigene
862 Digitalisate in zentralen DH-Infrastrukturen aus finanziellen Gründen
863 nicht beitragen können, entsteht ein regionaler Bias.[95]
864 [59]Auf Basis von Value Sensitive Design können Personen mit verschiedenen
865 physischen Einschränkungen genauso wie Institutionen mit geringen
866 finanziellen Ressourcen als Stakeholder von digitalen Archiven und
867 Infrastrukturen in den Fokus genommen werden. Im Rahmen empirischer
868 Untersuchungen kann erhoben werden, welche Interessen und Werte
869 diese Stakeholder-Gruppen haben – beispielsweise Barrierefreiheit,
870 Freiheit von Bias, Teilhabe und (Informations-)Gerechtigkeit –
871 und an welchen Stellen diese möglicherweise mit den Interessen
872 weiterer Stakeholder-Gruppen in Konflikt geraten. Darauf aufbauend
873 können im Rahmen der technischen Investigationen Strategien
874 entwickelt werden, um die Benutzeroberflächen und Policies der
875 DH-Projekte so zu gestalten, dass sie auch die Interessen von
876 Personen mit verschiedenen physischen Einschränkungen genauso
877 wie von Institutionen mit geringen finanziellen Ressourcen berücksichtigen.
878
879
880
881 6.2 Design-Normen für KI-Anwendungen in den Numerical Humanities
882
883
884
885 [60]Anders als die Digitized Humanities legt die Spielart der Numerical Humanities den
886 Schwerpunkt darauf,
657 formale Modelle zu erstellen und menschliches Verhalten mathematisch zu 887 formale Modelle zu erstellen und menschliches Verhalten mathematisch zu
658 abstrahieren. Hier kommen vor allem KI-Anwendungen wie Machine Learning 888 abstrahieren. Hier kommen vor allem KI-Anwendungen wie Machine Learning
659 Software zum Einsatz. Machine Learning Software zeichnet sich dadurch aus, 889 Software zum Einsatz. Machine Learning Software zeichnet sich dadurch
660 dass sie sich autonom und adaptiv weiterentwickelt, indem sie mit ihrem 890 aus, dass sie sich autonom und adaptiv weiterentwickelt, indem sie mit
661 Umfeld interagiert. Machine-Learning-Systeme können daher aus verschiedenen 891 ihrem Umfeld interagiert. Machine Learning Systeme können daher aus
662 Gründen Bias enthalten: Wenn die Trainingsdaten biased sind, wird dieser 892 verschiedenen Gründen Bias enthalten: Wenn die Trainingsdaten biased
663 Bias unweigerlich in die Machine Learning Software übertragen. Beispiel 893 sind, wird dieser Bias unweigerlich in die Machine Learning Software
664 hierfür ist die eingangs erwähnte Gesichtserkennungssoftware, die bei 894 übertragen. Beispiel hierfür ist die eingangs erwähnte
665 Schwarzen Personen eine deutlich höhere Rate an falsch positiven Treffern 895 Gesichtserkennungssoftware, die bei Schwarzen Personen eine deutlich
666 aufweist als bei weißen Personen – weil die Trainingsdaten vorrangig 896 höhere Rate an falsch positiven Treffern aufweist als bei weißen Personen – weil die Trainingsdaten
667 Bilder weißer Personen enthielten. Mithilfe des 897 vorrangig Bilder weißer Personen enthielten.
668 Value-Sensitive-Design-Ansatzes kann also sichergestellt werden, dass der 898 Mithilfe des Value-Sensitive-Design-Ansatzes kann also sichergestellt
669 Datensatz, auf dessen Basis eine Machine Learning Software lernt, keinen 899 werden, dass der Datensatz, auf dessen Basis eine
670 Bias aufweist (vgl. auch Kapitel 900 Machine Learning Software lernt, keinen Bias aufweist (vgl. auch Kapitel 6.1).
671 5.1). 901
672 [39]Machine-Learning-Systeme können 902 [61]Machine Learning Systeme können aber auch bei unverzerrten Trainingsdaten
673 aber auch bei unverzerrten Trainingsdaten einen Algorithmus hervorbringen, 903 einen Algorithmus hervorbringen, der »might conceivably be
674 der »might conceivably be described as following a rule that is somehow 904 described as following a rule that is somehow biased«.[96] Diese Form von Bias ist
675 biased«.[59] Diese Form von 905 »emergent und opaque«,[97] er ist also nicht
676 Bias ist »emergent und opaque«,[60] er ist also 906 vorhersehbar und für Menschen schwer zu erkennen. Eine ethische
677 nicht vorhersehbar und für Menschen schwer zu erkennen. Eine ethische 907 Überprüfung von Machine Learning Technologien bringt daher besondere
678 Überprüfung von Machine-Learning-Technologien bringt daher besondere
679 Herausforderungen mit sich. Umbrello und van de Poel schlagen vor, das 908 Herausforderungen mit sich. Umbrello und van de Poel schlagen vor, das
680 Value-Sensitive-Design-Framework für KI-Anwendungen weiterzuentwickeln und 909 Value-Sensitive-Design-Framework für KI-Anwendungen weiterzuentwickeln
681 um ein »set of AI-specific design principles«[61] zu 910 und um ein »set of AI-specific design principles«[98] zu ergänzen. Drei Aspekte
682 ergänzen. Drei Aspekte sind dabei zentral: 911 sind dabei zentral:
683 [40]1) Als Design-Vorgaben, die für 912
684 alle KI-Anwendungen gelten, schlagen Umbrello und van de Poel die AI for 913 [62]1) Als Design-Vorgaben, die für alle KI-Anwendungen gelten, schlagen
685 Social Good-Prinzipien (AI4SG) vor. Diese spezifizieren die 914 Umbrello und van de Poel die AI for Social Good-Prinzipien (AI4SG) vor. Diese spezifizieren die Prinzipien der EU High Level Expert Group on AI und übertragen
686 Prinzipien der EU High Level Expert Group 915 sie in sieben konkrete Anforderungen für das Design von KI-Anwendungen:
687 on AI und übertragen sie in sieben konkrete Anforderungen für das 916
688 Design von KI-Anwendungen:
689 917
691 Szenarien empirisch getestet; 919 Szenarien empirisch getestet;
920
692 die Designer*innen sichern die Anwendung gegen die Manipulation 921 die Designer*innen sichern die Anwendung gegen die Manipulation
693 der Datenbasis und die übermäßige Abhängigkeit von einzelnen Variablen 922 der Datenbasis und die übermäßige Abhängigkeit von einzelnen
694 ab; 923 Variablen ab;
924
695 die Nutzer*innen-Autonomie wird gestärkt, indem die User*innen 925 die Nutzer*innen-Autonomie wird gestärkt, indem die User*innen
696 verschieden Auswahlmöglichkeiten bekommen; 926 verschieden Auswahlmöglichkeiten bekommen;
927
697 die Anwendung ist transparent und wird angepasst an die jeweilige 928 die Anwendung ist transparent und wird angepasst an die jeweilige
698 Nutzer*innen-Gruppe erklärt; 929 Nutzer*innen-Gruppe erklärt;
699 die Privatsphäre von »data subjects«[62] 930
700 wird geschützt; 931 die Privatsphäre von »data subjects«[99] wird geschützt;
932
701 die Datenbasis, mit der die Anwendung lernt, muss frei von Bias 933 die Datenbasis, mit der die Anwendung lernt, muss frei von Bias
702 sein, v. a. bezüglich Kategorien wie Race, Gender und Altersklassen und 934 sein, v. a. bezüglich Kategorien wie Race, Gender und Altersklassen
935 und
936
703 die Zuschreibung von Bedeutung darf nicht willkürlich erfolgen und 937 die Zuschreibung von Bedeutung darf nicht willkürlich erfolgen und
704 nicht zu eng gefasst werden.[63] 938 nicht zu eng gefasst werden.[100]
705 939
706 [41]2) Die AI4SG-Prinzipien zielen 940 [63]2) Die AI4SG-Prinzipien zielen jedoch vorrangig darauf ab, KI-Anwendungen
707 jedoch vorrangig darauf ab, KI-Anwendungen so zu gestalten, dass sie keinen 941 so zu gestalten, dass sie keinen Schaden hervorrufen. Der
708 Schaden hervorrufen. Der Value-Sensitive-Design-Ansatz sieht darüber hinaus 942 Value-Sensitive-Design-Ansatz sieht darüber hinaus aber auch vor,
709 aber auch vor, gesellschaftlich erwünschte Werte und Ziele aktiv zu fördern. 943 gesellschaftlich erwünschte Werte und Ziele aktiv zu fördern sowie die Werte aller
710 Umbrello und van de Poel schlagen daher vor, zwischen »values promoted by 944 beteiligten Stakeholder zu berücksichtigen. Umbrello
711 design and values respected by design«[64] zu 945 und van de Poel schlagen daher vor, zwischen »values promoted by
712 unterscheiden. Welche Werte gesellschaftlich erwünscht sind und von 946 design and values respected by design«[101] zu unterscheiden. Welche
713 KI-Technologien gefördert werden sollen, kann beispielsweise anhand der 947 Werte gesellschaftlich erwünscht sind und von KI-Technologien gefördert
714 Sustainable Development Goals (SDG) der UN abgeleitet werden, die 948 werden sollen, kann beispielsweise anhand der Sustainable Development Goals
715 von den Vereinten Nationen erarbeitet und ihren 193 Mitgliedsstaaten 949 (SDG) der UN abgeleitet werden, die von den Vereinten Nationen
716 verabschiedet wurden.[65] Zu den Zielen, die in den SDG 950 erarbeitet und ihren 193 Mitgliedsstaaten verabschiedet wurden.[102] Zu den Zielen,
717 festgehalten sind, gehören u. a. Geschlechtergerechtigkeit, die Bekämpfung 951 die in den SDG festgehalten sind, gehören u. a.
718 von Armut und der Zugang zu Bildung.[66] 952 Geschlechtergerechtigkeit, die Bekämpfung von Armut und der Zugang zu
719 [42]3) Schließlich schlagen die Autoren 953 Bildung.[103]
720 vor, dass die Value-Sensitive-Design-Analyse den gesamten Lebenszyklus einer 954 [64]3) Schließlich schlagen die Autoren vor, dass die
721 KI-Anwendung begleitet. Sollten im Lauf der Anwendungszeit einer Technologie 955 Value-Sensitive-Design-Analyse den gesamten Lebenszyklus einer
722 Problematiken und Wertverletzungen auftauchen, kann sie so entsprechend 956 KI-Anwendung begleitet. Sollten im Lauf der Anwendungszeit einer
723 angepasst werden. Die Erweiterung des Value-Sensitive-Design-Frameworks 957 Technologie Problematiken und Wertverletzungen auftauchen, kann sie so
724 sieht daher vor, über den gesamten Lebenszyklus hinweg Prototypen der 958 entsprechend angepasst werden. Die Erweiterung des
725 KI-Anwendung zu erstellen und diese im jeweiligen Anwendungsfeld zu testen. 959 Value-Sensitive-Design-Frameworks sieht daher vor, über den gesamten
726 Dabei werden nicht nur die technischen Funktionen geprüft, sondern auch die 960 Lebenszyklus hinweg Prototypen der KI-Anwendung zu erstellen und diese
727 Auswirkungen der KI-Anwendung auf Werte und Gesellschaft. Diese Tests 961 im jeweiligen Anwendungsfeld zu testen. Dabei werden nicht nur die
728 sollten mit der Anwendung in kleinem Rahmen beginnen und dann sukzessive den 962 technischen Funktionen geprüft, sondern auch die Auswirkungen der
729 Bezugsrahmen ausweiten.[67] 963 KI-Anwendung auf Werte und Gesellschaft. Diese Tests sollten mit der
730 [43]Auf Basis dieses erweiterten 964 Anwendung in kleinem Rahmen beginnen und dann sukzessive den
731 Frameworks kann Value Sensitive Design also auch in den Numerical Humanities 965 Bezugsrahmen ausweiten.[104]
732 genutzt werden, um selbstlernenden Systeme wertebasiert zu gestalten oder 966 [65]Umbrello und van de Poel illustrieren den Ablauf einer Value-Sensitive-Design-Analyse
733 bereits existierende KI-Anwendungen informationsethisch zu überprüfen. 967
734 968 von KI-Anwendungen am Beispiel der Corona-Datenspende-App, die im
735 969 April 2020 vom Robert-Koch-Institut (RKI) vorgestellt wurde. Über die App
736 970 können Bürger*innen mit Fitnessarmbändern und Smartwatches dem RKI ihre
737 5.3 Akteur*innen und ihre 971 Gesundheitsdaten zur Verfügung stellen, um die Ausbreitung des COVID-19-Virus
738 Interessen in den Humanities of the Digital analysieren 972 nachvollziehbar zu machen. In drei Schritten analysieren Umbrello und
739 973 van de Poel die Werte, die bei der Entwicklung und dem Einsatz der Corona
740 [44]Als dritte Spielart der Digital 974 Datenspende-App eine Rolle spielen:
741 Humanities beschreibt Roth die Humanities of the Digital: Die 975
742 geisteswissenschaftliche Forschung zu »computermediated interactions and 976
743 societies«,[68] also zu soziotechnischen 977 Als gesellschaftlich erwünschten Wert, den die Anwendung
744 Systemen wie Online-Communities, Blogs, Sozialen Netzwerk-Seiten und 978 fördert (»Values promoted by design«[105]) identifizieren sie öffentliche
979 Gesundheit. Dieser Wert lässt sich dem dritten SDG, Gesundheit und
980 Wohlbefinden, zuordnen.
981
982 Darüber hinaus analysieren die Autoren, welche »values respected
983 by design«, also Design-Vorgaben, die für alle KI-Anwendungen gelten,
984 im Kontext der Corona-Datenspende-App besondere Bedeutung einnehmen. So spielt
985 zum Beispiel die Verhinderung von Schaden (»Nonmaleficence«[106]) eine hervorgehobene Rolle, vor allem
986 in Bezug auf Datensicherheit und Privatsphäre. Aber auch Erklärbarkeit
987 und Autonomie sind Werte, die beim Design der App beachtet werden müssen,
988 d. h. es muss eine »balance between human decision-making power and
989 its abdication to AI systems«[107] gewährleistet werden, die Funktionsweise
990 der App und des KI-Systems müssen verständlich sein und mindestens eine Person
991 muss für die Funktionsweise verantwortlich zeichnen.
992
993 Schließlich analysieren Umbrello und van de Poel, welche
994 Interessen und Werte die Stakeholder der Corona-Datenspende-App
995 haben. Dabei nehmen sie die Nutzer*innen der App als direkte Stakeholder
996 in den Fokus. So ist beispielsweise Freiwilligkeit entscheidend, also
997 dass das Nutzen der App nicht verpflichtend ist. Damit einher geht der
998 Wert Fairness, der gewährleistet, dass niemand stigmatisiert oder
999 diskriminiert wird, der*die die App nicht nutzt. Zudem könnte das
1000 Tracing der Nutzer*innen über die App eine Gefahr für die Versammlungfreiheit
1001 darstellen, was die Autonomie der Nutzer*innen und die »Nonmaleficence«
1002 der KI-Anwendung gefährdet. Auch der Wert Gesundheit ist aus
1003 Nutzer*innen-Perspektive von besonderer Bedeutung: Wenn die App zu
1004 einem falschen Sicherheitsgefühl führt, könnten Nutzer*innen Gesundheitsrisiken
1005 eingehen.[108]
1006
1007
1008 [66]Anschließend zeigen Umbrello und van de Poel beispielhaft, wie die verschiedenen
1009 identifizierten Werte in Design-Anforderungen übersetzt werden können. Um den
1010 Wert Verhinderung von Schaden (»Nonmaleficence«[109]) zu unterstützen, müssen bei
1011 der Gestaltung der App vor allem der Schutz der Privatsphäre und informierte
1012 Einwilligung beachtet werden. Daraus ergibt sich erstens die Anforderung, dass
1013 die Nutzungsbedingungen der App verständlich formuliert werden müssen, und
1014 zweitens, dass die erhobenen Daten pseudonymisiert, lokal gespeichert und
1015 nach einem bestimmten Zeitraum wieder gelöscht werden müssen. Um den Wert
1016 der Erklärbarkeit zu unterstützen, muss für Nutzer*innen zudem transparent
1017 gemacht werden, welche Daten und Datensets gesammelt und erstellt werden, wie
1018 diese verwendet, gespeichert und gelöscht werden.[110] Abschließend empfehlen die
1019 Autoren die Erstellung eines Prototyps der Corona-Datenspende-App. Dieser
1020 soll zunächst mit einer limitierten Anzahl an Nutzer*innen getestet werden.
1021 Dabei sollen nicht nur die technischen Funktionen, sondern auch mögliche Auswirkungen
1022
1023 auf das Verhalten der Nutzer*innen, die Gesellschaft und die Werte der betroffenen
1024
1025 Stakeholder überprüft und das Design der App gegebenenfalls nachgebessert werden.[111]
1026 [67]Das erweiterte Framework von Value Sensitive Design für KI-Anwendungen kann
1027 auch in den Numerical Humanities genutzt werden, um selbstlernende
1028 Systeme wertebasiert zu gestalten oder bereits existierende
1029 KI-Anwendungen ethisch zu überprüfen. Zentral sind dabei neben
1030 den Werten der betroffenen Stakeholder auch die »values promoted
1031 by design and values respected by design«[112], also einerseits die
1032 in den Sustainable Development Goals formulierten Werte und Ziele
1033 und andererseits die Werte, die den AI for Social Good-Prinzipien
1034 (AI4SG) zugrunde liegen, also Freiheit von Bias, Autonomie,
1035 Privatsphäre und Transparenz.
1036
1037
1038 6.3 Akteur*innen und ihre Interessen in den Humanities of the Digital analysieren
1039
1040 [68]Als dritte Spielart der Digital Humanities beschreibt Roth die Humanities of the Digital:
1041 Die
1042 geisteswissenschaftliche Forschung zu »computermediated
1043 interactions and societies«,[113] also zu soziotechnischen Systemen wie
1044 Online-Communities, Blogs, Sozialen-Netzwerk-Seiten und
745 Gaming-Plattformen. Hier geht es also weniger darum, Technologien zu 1045 Gaming-Plattformen. Hier geht es also weniger darum, Technologien zu
746 entwickeln und anzuwenden, sondern diese als Untersuchungsgegenstände in den 1046 entwickeln und anzuwenden, sondern diese als Untersuchungsgegenstände in
747 Blick zu nehmen. 1047 den Blick zu nehmen. Geschlechtergerechtigkeit sowie globale Gerechtigkeit
748 [45]Value Sensitive Design kann dabei 1048 im Sinne von Teilhabe und Freiheit von Diskriminierung seien hier nur
749 als theoretischer Ausgangspunkt dienen, um Online-Communities, Soziale 1049 beispielhaft als Werte genannt, die dabei fokussiert werden können.
750 Netzwerk-Seiten und Gaming-Plattformen aus einer informationsethischen 1050
751 Perspektive zu untersuchen und sich unterschiedlichen Fragestellungen zu 1051 [69]Value Sensitive Design kann dabei als theoretischer Ausgangspunkt dienen,
752 nähern: Welche direkten und indirekten Stakeholder hat eine Soziale 1052 um Online-Communities, Soziale-Netzwerk-Seiten und Gaming-Plattformen
753 Netzwerk-Seite wie Instagram, eine 1053 aus einer ethischen Perspektive zu untersuchen und sich
754 Online-Community wie Wikipedia 1054 unterschiedlichen Fragestellungen zu nähern: Welche direkten und
755 oder eine Gaming-Plattform wie Steam? Welche Werte und wessen Interessen werden von den 1055 indirekten Stakeholder hat eine Soziale-Netzwerk-Seite wie Instagram, eine Online-Community wie Wikipedia oder eine Gaming-Plattform wie Steam? Welche Werte und wessen Interessen werden
756 Nutzungsbedingungen, Policies und dem technischen Design gefördert bzw. 1056 von den Nutzungsbedingungen, Policies und dem technischen Design
757 behindert? Wie könnte die jeweilige Plattform oder Community gestaltet sein, 1057 gefördert bzw. behindert? Wie könnte die jeweilige Plattform oder
758 um die Werte und Interessen aller Stakeholder zu beachten? 1058 Community gestaltet sein, um die Werte und Interessen aller Stakeholder
759 [46]Dass Online-Communities, Soziale 1059 zu beachten?
760 Netzwerk-Seiten und Gaming-Plattformen die Interessen und Werte 1060
761 verschiedener Stakeholder in unterschiedlichem Maß fördern oder behindern, 1061 [70]Dass Online-Communities, Soziale-Netzwerk-Seiten und Gaming-Plattformen
762 wird anhand von Beispielen deutlich. So weist die Community-betriebene 1062 die Interessen und Werte verschiedener Stakeholder in unterschiedlichem
763 Online-Datenbank Wikidata einen Gender Bias auf: Von den 8,2 Millionen 1063 Maß fördern oder behindern, wird anhand von Beispielen deutlich. So
764 Personen, die Wikidata verzeichnet, sind nur 23 Prozent Frauen.[69] Die 1064 weist die Community-betriebene Online-Datenbank Wikidata einen Gender
765 mit Wikidata verknüpfte Enzyklopädie Wikipedia enthält zudem einen 1065 Bias auf: Von den 8,2 Millionen Personen, die Wikidata verzeichnet, sind
766 »Eurocentric bias«,[70] da historische Artikel in mehreren 1066 nur 23 Prozent Frauen.[114] Die mit
767 Sprachversionen der Wikipedia vor allem die Geschichte europäischer Länder 1067 Wikidata verknüpfte Enzyklopädie Wikipedia enthält zudem einen
768 thematisieren.[71] Die Nutzungsbedingungen der Sozialen 1068 »Eurocentric bias«,[115] da historische Artikel in mehreren
769 Netzwerk-Seite Facebook erlauben Bilder nackter Oberkörper, die als 1069 Sprachversionen der Wikipedia vor allem die Geschichte europäischer
770 männlich gelesen werden, verbieten aber Bilder nackter Oberkörper, die als 1070 Länder thematisieren.[116] Die Nutzungsbedingungen der
771 weiblich gelesen werden. West beschreibt dies als »gendered policies on 1071 Sozialen-Netzwerk-Seite Facebook erlauben Bilder
772 images of female nudity«.[72] Eine umfassende 1072 nackter Oberkörper, die als männlich gelesen werden, verbieten aber
773 informationsethische Analyse der jeweiligen Communities und Sozialen 1073 Bilder nackter Oberkörper, die als weiblich gelesen werden. West
774 Netzwerk-Seiten, in der alle direkten und indirekten Stakeholder und ihre 1074 beschreibt dies als »gendered policies on images of female
775 Werte berücksichtigt werden, steht jedoch noch aus. 1075 nudity«[117]. Eine umfassende ethische
776 1076 Analyse der jeweiligen Communities und Sozialen-Netzwerk-Seiten, in der
777 1077 alle direkten und indirekten Stakeholder und ihre Werte berücksichtigt
778 1078 werden, steht jedoch noch aus.
779 5.4 Mehr Barrierefreiheit in den 1079
780 Public Humanities schaffen 1080 [71]Wie könnte die Analyse einer Online-Community wie Wikipedia anhand von
781 1081 Value Sensitive Design beispielsweise aussehen? Im Rahmen der
782 [47]Den drei von Roth beschriebenen 1082 konzeptionellen Untersuchungen werden zunächst der Kontext der
783 Teilbereichen der Digital Humanities fügt Burghardt eine vierte Spielart 1083 Online-Community beschrieben und die betroffenen Stakeholder ausgemacht.
784 hinzu: Die Public Humanities, also die Themenfelder des digitalen 1084 Die Online-Enzyklopädie Wikipedia zeichnet sich dadurch aus, dass sie
785 Publizierens, der Wissenschaftskommunikation und des E-Learnings. Auch hier 1085 alle Inhalte kostenfrei zur Verfügung stellt und es allen Nutzer*innen
786 gilt es, die Interessen unterschiedlicher Stakeholder zu berücksichtigen, um 1086 ermöglicht, die Inhalte des Lexikons zu bearbeiten.[118] Direkte Stakeholder sind dabei diejenigen,
787 Bias und Diskriminierung zu vermeiden. Auf Basis von Value Sensitive Design 1087 die selbst redaktionell an der Wikipedia mitarbeiten, genauso wie alle,
788 kann beispielsweise sichergestellt werden, dass digitale Publikationen und 1088 die Inhalte der Online-Enzyklopädie rezipieren. Auch die Wikimedia Foundation, die als
789 E-Learning-Angebote möglichst barrierefrei gestaltet werden. 1089 Non-Profit-Organisation die Wikipedia trägt und finanziert,[119] kann als
790 Barrierefreiheit bezieht sich dabei auf Barrieren physischer Art, aber auch 1090 direkter Stakeholder verstanden werden. Indirekte Stakeholder sind aber
791 finanzieller und sprachlicher Art. 1091 auch Individuen und Gruppen, die in den Artikeln und Inhalten der
792 [48]Genau wie in den Digitized 1092 Wikipedia abgebildet werden, genau wie jene, die nicht repräsentiert
793 Humanities sollten Benutzeroberflächen und Formate von digitalen 1093 werden. Welche Werte diese unterschiedlichen Stakeholder-Gruppen
794 Publikationen und E-Learning-Angeboten nach den Prinzipien der Web 1094 priorisieren und wo potentiell Wertkonflikte auftreten, muss im Rahmen
795 Accessibility gestaltet sein, sodass sie von Personen mit auditiven, 1095 von empirischen Investigationen untersucht werden, beispielsweise in
796 visuellen, körperlichen, kognitiven und sprachlichen Einschränkungen genutzt 1096 Online-Befragungen oder qualitativen Interviews. Im dritten Schritt der
797 werden können. Orientierung bieten dafür die Standards und Empfehlungen der 1097 Analyse, den technischen Investigationen, wird analysiert, welche
798 W3C Web Accessibility 1098 technischen Features und organisatorischen Strukturen der
799 Initiative,[73] die 1099 Online-Community Wikipedia die Interessen und Werte der verschiedenen
1100 Stakeholder-Gruppen fördern oder behindern. Eine
1101 Value-Sensitive-Design-Analyse ermöglicht damit ein Verständnis von
1102 Problematiken wie dem Eurocentric oder Gender Bias in der
1103 Online-Community Wikipedia, das neben verschiedenen
1104 Stakeholder-Interessen auch technische und organisatorische Aspekte
1105 einbezieht.
1106
1107
1108 6.4 Mehr Barrierefreiheit in den Public
1109 Humanities schaffen
1110
1111
1112 [72]Den drei von Roth beschriebenen Teilbereichen der Digital Humanities fügt
1113 Burghardt eine vierte Spielart hinzu: Die Public
1114 Humanities, also die Themenfelder des digitalen Publizierens,
1115 der Wissenschaftskommunikation und des E-Learnings. Auch hier gilt es,
1116 die Interessen unterschiedlicher Stakeholder zu berücksichtigen, um Bias
1117 und Diskriminierung zu vermeiden. Auf Basis von Value Sensitive Design
1118 kann beispielsweise sichergestellt werden, dass digitale Publikationen
1119 und E-Learning-Angebote möglichst barrierefrei gestaltet werden.
1120 Barrierefreiheit bezieht sich dabei auf Barrieren physischer Art, aber
1121 auch finanzieller und sprachlicher Art. Damit spielen in den Public
1122 Humanities neben Barrierefreiheit auch die in der Informationsethik
1123 zentralen Werte Informationsfreiheit und Informationsgerechtigkeit eine
1124 Rolle.[120]
1125 [73]Genau wie in den Digitized Humanities sollten Benutzeroberflächen und
1126 Formate von digitalen Publikationen und E-Learning-Angeboten nach den
1127 Prinzipien der Web Accessibility gestaltet sein, sodass sie von Personen
1128 mit auditiven, visuellen, körperlichen, kognitiven und sprachlichen
1129 Einschränkungen genutzt werden können. Orientierung bieten dafür die
1130 Standards und Empfehlungen der W3C Web Accessibility
1131 Initiative,[121] die
800 beispielsweise vorsehen, Bilder mit einem Alternativtext zu versehen, 1132 beispielsweise vorsehen, Bilder mit einem Alternativtext zu versehen,
801 Audio-Inhalte und Videos mit Transkriptionen bzw. Untertiteln auszustatten 1133 Audio-Inhalte und Videos mit Transkriptionen bzw. Untertiteln
802 und die Navigation auf Websites per Tastatur zu ermöglichen. Stakeholder, 1134 auszustatten und die Navigation auf Websites per Tastatur zu
803 deren Interessen damit verfolgt werden, sind dabei neben Menschen mit 1135 ermöglichen. Stakeholder, deren Interessen damit verfolgt werden, sind
804 Behinderung auch weitere Gruppen: Personen, deren Fähigkeiten sich 1136 dabei neben Menschen mit Behinderung auch weitere Gruppen: Personen,
805 altersbedingt verändern; Nutzer*innen, die über eine langsame 1137 deren Fähigkeiten sich altersbedingt verändern; Nutzer*innen, die über
806 Internet-Verbindung verfügen; und Personen, die sich in limitierenden 1138 eine langsame Internetverbindung verfügen; und Personen, die sich in
807 Situationen befinden, beispielsweise in einer Umgebung, in der sie 1139 limitierenden Situationen befinden, beispielsweise in einer Umgebung, in
808 Audio-Inhalte nicht anhören können oder hellem Sonnenlicht ausgesetzt sind. 1140 der sie Audio-Inhalte nicht anhören können oder hellem Sonnenlicht
809 Die W3C Web Accessibility Initiative empfiehlt, Aspekte der 1141 ausgesetzt sind. Die W3C Web Accessibility
810 Barrierefreiheit bereits zu Beginn eines Projektes zu bedenken, um zu 1142 Initiative empfiehlt, Aspekte der Barrierefreiheit bereits zu
811 vermeiden, Designs und Inhalte noch einmal neu gestalten zu müssen.[74] 1143 Beginn eines Projektes zu bedenken, um zu vermeiden, Designs und Inhalte
812 [49]Neben Empfehlungen für die 1144 noch einmal neu gestalten zu müssen.[122]
813 Gestaltung und Entwicklung von Websites und Online-Publikationen weist die 1145 [74]Neben Empfehlungen für die Gestaltung und Entwicklung von Websites und
814 W3C Web Accessibility Initiative auch darauf hin, dass Texte klar, prägnant 1146 Online-Publikationen weist die W3C Web Accessibility Initiative auch
815 und in verständlicher Sprache formuliert werden sollen.[75] Auch 1147 darauf hin, dass Texte klar, prägnant und in verständlicher Sprache
816 Sprache kann also eine Barriere sein, die es Stakeholdern schwierig bis 1148 formuliert werden sollen.[123] Auch Sprache
1149 kann also eine Barriere sein, die es Stakeholdern schwierig bis
817 unmöglich macht, eine Ressource zu nutzen. Dabei spielen nicht nur die 1150 unmöglich macht, eine Ressource zu nutzen. Dabei spielen nicht nur die
818 Verständlichkeit von Texten, sondern auch Fremdsprachenkenntnisse eine 1151 Verständlichkeit von Texten, sondern auch Fremdsprachenkenntnisse eine
819 Rolle. Ein Beispiel: Die Website The Programming Historian 1152 Rolle. Ein Beispiel: Die Website The Programming Historian publiziert Tutorials, »that help humanists learn a wide
820 publiziert Tutorials, »that help humanists learn a wide range of digital 1153 range of digital tools, techniques, and workflows«[124]. Die englischsprachige
821 tools, techniques, and workflows«.[76]Die 1154 Version der Website ist im Directory of Open Access
822 englischsprachige Version der Website ist im Directory of Open Access Journals 1155 Journals (DOAJ) verzeichnet. Das DOAJ lehnte es zunächst
823 (DOAJ) verzeichnet. Das DOAJ lehnte es zunächst jedoch ab, auch die 1156 jedoch ab, auch die spanisch- und französischsprachigen Versionen der
824 spanisch- und französischsprachigen Versionen der Tutorials in ihr 1157 Tutorials in ihr Verzeichnis aufzunehmen, da diese als nicht
825 Verzeichnis aufzunehmen, da diese als nicht »original enough«[77] angesehen 1158 »original enough«[125] angesehen wurden. Für Personen, die über
826 wurden. Für Personen, die über geringe Englischkenntnisse verfügen und daher 1159 geringe Englischkenntnisse verfügen und daher gezielt nach französisch-
827 gezielt nach französisch- oder spanischsprachigen Ressourcen suchen, waren 1160 oder spanischsprachigen Ressourcen suchen, waren die entsprechenden
828 die entsprechenden Tutorials von The Programming Historian über das DOAJ 1161 Tutorials von The Programming Historian über das DOAJ damit nicht
829 damit nicht auffindbar. Seit April 2021 verzeichnet das DOAJ aber alle drei 1162 auffindbar. Seit April 2021 verzeichnet das DOAJ aber alle drei
830 Sprachversionen der Website und trägt damit zur barrierefreien 1163 Sprachversionen der Website und trägt damit zur barrierefreien
831 Auffindbarkeit der Tutorials von The Programming Historian für Personen ohne 1164 Auffindbarkeit der Tutorials von The Programming Historian für Personen
832 oder mit geringen Englischkenntnissen bei.[78] 1165 ohne oder mit geringen Englischkenntnissen bei.[126]
833 [50]Schließlich können auch finanzielle 1166 [75]Schließlich können auch finanzielle Aspekte ausschlaggebend dafür sein,
834 Aspekte ausschlaggebend dafür sein, dass digitale Publikationen oder 1167 dass digitale Publikationen oder E-Learning-Ressourcen von bestimmten
835 E-Learning-Ressourcen von bestimmten Individuen oder Gruppen nicht genutzt 1168 Individuen oder Gruppen nicht genutzt werden können. Der Zugang zu
836 werden können. Der Zugang zu wissenschaftlichen Zeitschriften, Monographien 1169 wissenschaftlichen Zeitschriften, Monographien und Sammelbänden ist
837 und Sammelbänden ist sowohl für Einzelpersonen als auch für Institutionen in 1170 sowohl für Einzelpersonen als auch für Institutionen in der Regel mit
838 der Regel mit Kosten verbunden – mit Ausnahme von Publikationen, die Open Access zur Verfügung gestellt 1171 Kosten verbunden – mit Ausnahme von Publikationen, die Open Access zur Verfügung gestellt werden. Aber auch hier
839 werden. Aber auch hier können finanzielle Barrieren entstehen, und zwar für 1172 können finanzielle Barrieren entstehen, und zwar für die Autor*innen,
840 die Autor*innen, die eigene Beiträge veröffentlichen wollen: Sog. Gold-Open-Access-Zeitschriften, die 1173 die eigene Beiträge veröffentlichen wollen: Sogenannte Gold-Open-Access-Zeitschriften, die ihre Beiträge direkt bei
841 ihre Beiträge direkt bei der Veröffentlichung für Leser*innen kostenfrei zur 1174 der Veröffentlichung für Leser*innen kostenfrei zur Verfügung stellen,
842 Verfügung stellen, erheben teilweise Article 1175 erheben teilweise Article Processing Charges
843 Processing Charges (APCs) – also Gebühren, die 1176 (APCs) – also Gebühren, die Autor*innen für die Veröffentlichung ihres
844 Autor*innen für die Veröffentlichung ihres Beitrages entrichten müssen.[79] Für Wissenschaftler*innen, die an weniger ressourcenstarken 1177 Beitrages entrichten müssen.[127] Für Wissenschaftler*innen, die
845 Institutionen affiliiert sind, hat dies zur Folge, dass sie ihre Beiträge 1178 an weniger ressourcenstarken Institutionen affiliiert sind, hat dies zur
846 nur in einem Teil der entsprechenden Journals publizieren können, die in 1179 Folge, dass sie ihre Beiträge nur in einem Teil der entsprechenden
847 ihrem jeweiligen Fachbereich eine Rolle spielen – nämlich denjenigen ohne 1180 Journals publizieren können, die in ihrem jeweiligen Fachbereich eine
848 APCs. Damit sind ihre Möglichkeiten, am wissenschaftlichen Diskurs 1181 Rolle spielen – nämlich denjenigen ohne APCs. Damit sind ihre
849 teilzunehmen, eingeschränkt. 1182 Möglichkeiten, am wissenschaftlichen Diskurs teilzunehmen,
850 [51]Der Value-Sensitive-Design-Ansatz 1183 eingeschränkt.
851 kann damit auch in den Public Humanities dazu beitragen, die Policies und 1184
852 das technische Design von digitalen Publikationen und E-Learning-Ressourcen 1185 [76]Wie also können digitale Publikationen auf Basis von Value Sensitiv
853 so zu gestalten, dass Barrieren finanzieller, sprachlicher und physischer 1186 Design wertebasiert gestaltet werden? Zunächst wird im Rahmen der
854 Art abgebaut werden, indem die Interessen und Werte unterschiedlicher 1187 konzeptionellen Überlegungen untersucht, welche Stakeholdergruppen
855 Stakeholder berücksichtigt werden. Zu diesen Stakeholdern gehören u. a. 1188 im Kontext digitaler Publikationen eine Rolle spielen. Zu den
856 Wissenschaftler*innen, die an ressourcenarmen Institutionen affiliiert sind, 1189 direkten Stakeholdern gehören neben den Autor*innen und Leser*innen
857 Personen mit geringen Englischkenntnissen, Nutzer*innen, die über eine 1190 wissenschaftlicher Texte auch die Organisationen, die digitale
858 langsame Internet-Verbindung verfügen und Menschen mit auditiven, visuellen 1191 Publikationen bereitstellen, und ihre Mitarbeiter*innen. Diese
859 oder körperlichen Einschränkungen. 1192 Stakeholder-Gruppen müssen in weitere Untergruppen ausdifferenziert
860 1193 werden, deren Interessen bei der Gestaltung von digitalen
861 1194 Publikationen und ihren Policies besonderer Berücksichtigung
862 1195 bedürfen. Zu Stakeholdergruppen mit spezifischen Interessen
863 5.5 Menschenrechte und 1196 gehören beispielsweise Wissenschaftler*innen, die an ressourcenarmen
864 Umweltschutz in allen DH-Spielarten fördern 1197 Institutionen affiliiert sind, aber auch Personen mit geringen
865 1198 Englischkenntnissen und Nutzer*innen, die über eine langsame
866 [52]In den bisherigen Abschnitten wurde 1199 Internetverbindung verfügen sowie Menschen mit auditiven,
867 gezeigt, wie Value Sensitive Design in den vier von Roth und Burghardt 1200 visuellen oder körperlichen Einschränkungen.
868 benannten Spielarten der DH angewendet werden kann, um Bias und 1201
869 Diskriminierung zu vermeiden. Abschließend soll hier auf eine Problematik 1202 [77]In einem zweiten Schritt, den empirischen Untersuchungen, muss erhoben
870 eingegangen werden, die alle DH-Projekte unabhängig von ihrer Spielart 1203 werden, welche Interessen und Werte die verschiedenen
871 aufwerfen. Noble ruft Akteur*innen in den DH dazu auf, sich die »materiality 1204 Stakeholder-Gruppen als wichtig bewerten, beispielsweise im Rahmen von
872 of the digital humanities and its impact in the world«[80] stärker 1205 Interviews oder Online-Befragungen. Vor allem in Bezug auf Open Access
873 bewusst zu machen. So führt der Abbau von Mineralien, die für die 1206 ist dabei wahrscheinlich, dass Werte wie Informationsfreiheit und
874 Herstellung digitaler Technologien benötigt werden, in Regionen des globalen 1207 Informationsgerechtigkeit, die Autor*innen und Leser*innen wichtig sind,
875 Südens zu Konflikten und Ausbeutung, während Nutzer*innen im globalen Norden 1208 in Konflikt mit den wirtschaftlichen Interessen der Organisationen
876 die Profiteur*innen dieser Technologien sind. Zudem entstehen sowohl bei der 1209 stehen, die digitale Publikationen bereitstellen, vor allem wenn diese
877 Produktion, als auch bei der meist unsachgemäßen Entsorgung von Hardware 1210 in privatwirtschaftlichen Strukturen organisiert sind.[128] Dieser
878 Umweltschäden. Noble fordert daher: Die DH-Community sollte nicht nur 1211 Interessenskonflikt kann zugunsten der Autor*innen, Leser*innen und
879 reflektieren, wie sie zu einer gerechteren Verteilung von IT-Infrastrukturen 1212 Wissenschaftler*innen, die an ressourcenarmen Institutionen affiliiert
880 weltweit beitragen kann, sondern auch »design against – or outright resist – 1213 sind, gelöst werden, indem Fachcommunities eigene Publikationsorgane
881 the exploitive forms of labor and hazardous environmental practices in which 1214 anbieten, die nicht privatwirtschaftlich, sondern community-basiert
882 information and communication technologies are implicated«.[81] Auch 1215 organisiert sind. Ein Beispiel ist die Zeitschrift für
1216 digitale Geisteswissenschaften (ZfdG), die vom Forschungsverbund Marbach Weimar Wolfenbüttel und
1217 dem DHd-Verband (Digital Humanities im
1218 deutschsprachigen Raum) herausgegeben wird: [129] Alle Artikel der
1219 Zeitschrift erscheinen Open Access, ohne dass Autor*innen für die
1220 Veröffentlichung ihrer Texte Gebühren entrichten müssen. [130]
1221 [78]Um darüber hinaus auch die Interessen von Stakeholder-Gruppen wie Personen
1222 mit geringen Englischkenntnissen, Nutzer*innen, die über eine langsame
1223 Internetverbindung verfügen und Menschen mit auditiven, visuellen
1224 oder körperlichen Einschränkungen in das Design von digitalen Publikationen
1225 einzubeziehen, sind weitere empirische und technische Investigationen
1226 nötig, die hier nicht ausgeführt werden können. Deutlich wurde aber,
1227 dass der Value-Sensitive-Design-Ansatz auch in den Public Humanities
1228 dazu beitragen kann die Policies und das technische Design von
1229 digitalen Publikationen und E-Learning-Ressourcen so zu gestalten, dass
1230 Barrieren finanzieller, sprachlicher und physischer Art abgebaut werden,
1231 indem die Interessen und Werte unterschiedlicher Stakeholder
1232 berücksichtigt werden.
1233
1234
1235 6.5 Menschenrechte und Umweltschutz in allen DH-Spielarten
1236 fördern
1237
1238
1239 [79]In den bisherigen Abschnitten wurde gezeigt, wie Value Sensitive Design
1240 in den vier von Roth und Burghardt benannten Spielarten der DH
1241 angewendet werden kann, um Bias und Diskriminierung zu vermeiden.
1242 Abschließend soll hier auf eine Problematik eingegangen werden, die alle
1243 DH-Projekte unabhängig von ihrer Spielart aufwerfen. Noble ruft
1244 Akteur*innen in den DH dazu auf, sich die »materiality of the
1245 digital humanities and its impact in the world«[131] stärker bewusst zu machen. So führt
1246 der Abbau von Mineralien, die für die Herstellung digitaler Technologien
1247 benötigt werden, in Regionen des globalen Südens zu Konflikten und
1248 Ausbeutung, während Nutzer*innen im globalen Norden die Profiteur*innen
1249 dieser Technologien sind. Zudem entstehen sowohl bei der Produktion, als
1250 auch bei der meist unsachgemäßen Entsorgung von Hardware Umweltschäden.
1251 Noble fordert daher: Die DH-Community sollte nicht nur reflektieren, wie
1252 sie zu einer gerechteren Verteilung von IT-Infrastrukturen weltweit
1253 beitragen kann, sondern auch »design against – or outright resist
1254 – the exploitive forms of labor and hazardous environmental
1255 practices in which information and communication technologies are
1256 implicated«[132]. Auch
883 das Manifest Digital Humanities and the Climate Crisis, das im Sommer 1257 das Manifest Digital Humanities and the Climate Crisis, das im Sommer
884 2021 von einem internationalen Zusammenschluss DH-Forschender veröffentlicht 1258 2021 von einem internationalen Zusammenschluss DH-Forschender
885 wurde, ruft Akteur*innen in den DH dazu auf, die ökologischen und sozialen 1259 veröffentlicht wurde, ruft Akteur*innen in den DH dazu auf, die
886 Auswirkungen ihres Handelns zu prüfen.[82] 1260 ökologischen und sozialen Auswirkungen ihres Handelns zu prüfen.[133]
887 [53]Auch hier kann Value Sensitive 1261 [80]Auch hier kann Value Sensitive Design als Ausgangspunkt dienen, um Werte
888 Design als Ausgangspunkt dienen, um Menschenrechte und Umweltschutz beim 1262 wie Umweltschutz und ökologische Nachhaltigkeit, globale Gerechtigkeit
889 Design von Projekten und Technologien in den DH mitzudenken. So können die 1263 und Gesundheit beim Design von Projekten und Technologien in den DH
890 Personen, die am Herstellungsprozess von Hardware und IT-Technologien 1264 mitzudenken. So können die Personen, die am Herstellungsprozess von
891 beteiligt sind, genauso als indirekte Stakeholder eines jeden DH-Projektes 1265 Hardware und IT-Technologien beteiligt sind, genauso als indirekte
892 begriffen werden wie diejenigen, die von den Umweltschäden durch 1266 Stakeholder eines jeden DH-Projektes begriffen werden wie diejenigen,
893 unsachgemäße Hardware-Entsorgung betroffen sind. Wie können die Werte und 1267 die von den Umweltschäden durch unsachgemäße Hardware-Entsorgung
894 Interessen dieser Stakeholder also im Design berücksichtigt werden? Dies 1268 betroffen sind. Wie können die Werte und Interessen dieser Stakeholder
895 gilt es, mit empirischen Untersuchungen und technischen Investigationen zu 1269 also im Design berücksichtigt werden? Dies gilt es, mit empirischen
896 erforschen. Hier zwei Ideen: DH-Projekte könnten sich grundsätzlich zum Ziel 1270 Untersuchungen und technischen Investigationen zu erforschen. Hier zwei
897 setzen, Software und Infrastrukturen so zu entwickeln, dass sie möglichst 1271 Ideen: DH-Projekte könnten sich grundsätzlich zum Ziel setzen, Software
898 wenig (Hardware-)Ressourcen in Anspruch nehmen, wie es zum Beispiel die 2014 1272 und Infrastrukturen so zu entwickeln, dass sie möglichst wenig
899 gegründete Arbeitsgruppe Minimal 1273 (Hardware-)Ressourcen in Anspruch nehmen, wie es zum Beispiel die 2014
900 Computing der Global Outlook 1274 gegründete Arbeitsgruppe Minimal Computing der
901 DH-Initiative propagiert.[83] Bei der Beschaffung von 1275 Global Outlook DH propagiert.[134] Bei
902 Hardware sollte zudem darauf geachtet werden, dass diese sozial- und 1276 der Beschaffung von Hardware sollte zudem darauf geachtet werden, dass
903 umweltverträglich hergestellt wurde. Orientierung bieten dabei Label wie 1277 diese sozial- und umweltverträglich hergestellt wurde. Orientierung
904 TCO Certified für soziale 1278 bieten dabei Label wie TCO Certified für soziale
905 Kriterien oder der Blaue Engel, 1279 Kriterien oder der Blaue Engel, das EU-Ecolabel und das Nordic
906 das EU-Ecolabel und das Nordic Ecolabel für ökologische 1280 Ecolabel für ökologische Aspekte.[135] Wie öffentliche
907 Aspekte.[84] Wie 1281 Einrichtungen soziale und ökologische Kriterien in Vergabeverfahren
908 öffentliche Einrichtungen soziale und ökologische Kriterien in 1282 verankern können, verdeutlichen u. a. die Fachkonferenzen für sozial verantwortliche IT-Beschaffung und
909 Vergabeverfahren verankern können, verdeutlichen u. a. die Fachkonferenzen für sozial verantwortliche 1283 die Nichtregierungsorganisation Electronics Watch
910 IT-Beschaffung und die Nichtregierungsorganisation Electronics Watch auf ihren 1284 auf ihren Websites.[136] Darüber hinaus könnten Menschenrechts- und
911 Websites.[85] Darüber hinaus könnten Menschenrechts- und
912 Umweltschutz-Aspekte nicht nur bei der Beschaffung von Hardware, sondern 1285 Umweltschutz-Aspekte nicht nur bei der Beschaffung von Hardware, sondern
913 auch bei der Organisation von Konferenzen und Dienstreisen im Rahmen von 1286 auch bei der Organisation von Konferenzen und Dienstreisen im Rahmen von
914 DH-Projekten handlungsleitend sein, beispielsweise indem bei Tagungen fair 1287 DH-Projekten handlungsleitend sein, beispielsweise indem bei Tagungen
915 gehandelte und ökologisch erzeugte Verpflegung angeboten und auf Flugreisen 1288 fair gehandelte und ökologisch erzeugte Verpflegung angeboten und auf
916 so weit wie möglich verzichtet wird. 1289 Flugreisen so weit wie möglich verzichtet wird.
917 1290
918 1291
919 1292
920 6. Zusammenfassung, Limitationen und 1293 7. Zusammenfassung, Limitationen und Ausblick
921 Ausblick 1294
922 1295 [81]Dieser Beitrag zeigt auf, dass Technologien nicht neutral sind, sondern immer
923 [54]Dieser Beitrag zeigt auf, dass 1296 bestimmte Werte fördern oder behindern. Zugleich werden in jedem
924 Technologien nicht neutral sind, sondern immer bestimmte Werte fördern oder 1297 Digital-Humanities-Projekt Technologien angewendet oder entwickelt. Um zu
925 behindern. Zugleich werden in jedem Digital-Humanities-Projekt Technologien 1298 verhindern, dass diese Technologien Bias reproduzieren oder hervorbringen,
926 angewendet oder entwickelt. Um zu verhindern, dass diese Technologien Bias 1299 schlägt dieser Beitrag die Anwendung von Value Sensitive Design vor: Dieses
927 reproduzieren oder hervorbringen, schlägt dieser Beitrag die Anwendung von Value 1300 theoretische und methodische Framework bietet eine dreiteilige
928 Sensitive Design vor: Dieses theoretische und methodische Framework bietet eine 1301 Vorgehensweise, um die Werte aller betroffenen Stakeholder einer Technologie
929 dreiteilige Vorgehensweise, um die Werte aller betroffenen Stakeholder einer 1302 im gesamten Design-Prozess zu berücksichtigen. Anhand der vier von Roth und
930 Technologie im gesamten Design-Prozess zu berücksichtigen. Anhand der vier von 1303 Burghardt geprägten Spielarten von DH wurden verschiedene Anknüpfungspunkte
931 Roth und Burghardt geprägten Spielarten von DH wurden verschiedene 1304 und Anwendungsbeispiele aufgezeigt, wie Value Sensitive Design in
932 Anknüpfungspunkte und Anwendungsbeispiele aufgezeigt, wie Value Sensitive Design 1305 DH-Projekten gewinnbringend eingesetzt werden kann.
933 in DH-Projekten gewinnbringend eingesetzt werden kann. 1306
934 [55]Dabei unterliegen sowohl dieser 1307 [82]Dabei unterliegen sowohl dieser Beitrag, als auch der
935 Beitrag, als auch der Value-Sensitive-Design-Ansatz verschiedenen Limitationen. 1308 Value-Sensitive-Design-Ansatz verschiedenen Limitationen. So können
936 So können Technologien, Datensätze und Forschungsprojekte auch Verzerrungen 1309 Technologien, Datensätze und Forschungsprojekte auch Verzerrungen aufweisen,
937 aufweisen, die keine systematische und unfaire Diskriminierung hervorrufen. 1310 die keine systematische und unfaire Diskriminierung hervorrufen. Solche
938 Solche Verzerrungen werden zwar nicht als Bias im Sinne von Nissenbaum und 1311 Verzerrungen werden zwar nicht als Bias im Sinne von Nissenbaum und Friedman
939 Friedman verstanden,[86] sind aber trotzdem 1312 verstanden,[137]
940 problematisch, da sie zu verzerrten Forschungsergebnissen führen. Um diese Art 1313 sind aber trotzdem problematisch, da sie zu verzerrten Forschungsergebnissen
941 von Bias zu verhindern, ist Value Sensitive Design weniger geeignet; mögliche 1314 führen. Um diese Art von Bias zu verhindern, ist Value Sensitive Design
942 Strategien zur Vermeidung solcher Verzerrungen sind vielmehr Methodenvielfalt, 1315 weniger geeignet; mögliche Strategien zur Vermeidung solcher Verzerrungen
943 Triangulation und unterschiedliche experimentelle Settings. 1316 sind vielmehr Methodenvielfalt, Triangulation und unterschiedliche
944 [56]Darüber hinaus ließen sich sicherlich 1317 experimentelle Settings.
945 noch weitere Aspekte und Beispiele finden, wie Value Sensitive Design in 1318
946 DH-Projekten genutzt werden kann. Gleichermaßen gibt es neben Value Sensitive 1319 [83]Darüber hinaus ließen sich sicherlich noch weitere Aspekte und Beispiele
947 Design weitere Methoden und Frameworks, die die ethische Gestaltung von 1320 finden, wie Value Sensitive Design in DH-Projekten genutzt werden kann.
948 Projekten und Technologien unterstützen, beispielsweise Embedded Ethics oder Partizipatives Design.[87] Kern des Embedded-Ethics-Ansatzes ist es, eine oder mehrere 1321 Gleichermaßen gibt es wie in Kapitel 4 beschrieben neben Value Sensitive Design weitere Methoden und
949 Ethiker*innen an allen Entscheidungen im gesamten Verlauf eines Projektes zu 1322 Frameworks, die die ethische Gestaltung von Projekten und Technologien
950 beteiligen.[88] Das Konzept des Partizipativen 1323 unterstützen, wie Embedded Ethics oder
951 Designs legt hingegen den Fokus darauf, potentielle Nutzer*innen in den 1324 Partizipatives Design. In beiden Ansätzen hängt die ethische
952 Design-Prozess einzubinden.[89] Damit hängt die ethische Bewertung und Gestaltung in beiden 1325 Bewertung und Gestaltung aber stärker von wenigen,
953 Ansätzen stärker von wenigen, ausgewählten Akteur*innen ab: im Falle von 1326 ausgewählten Akteur*innen ab: im Falle von Embedded Ethics von den Werten
954 Embedded Ethics von den Werten und Perspektiven der Ethiker*innen im jeweiligen 1327 und Perspektiven der Ethiker*innen im jeweiligen Projekt; bei Partizipativem
955 Projekt; bei Partizipativem Design von den Werten und Perspektiven ausgewählter 1328 Design von den Werten und Perspektiven ausgewählter Nutzer*innen. Aus meiner
956 Nutzer*innen. Aus meiner Sicht hat Value Sensitive Design demgegenüber den 1329 Sicht hat Value Sensitive Design demgegenüber den entscheidenden Vorteil,
957 entscheidenden Vorteil, die Perspektiven, Werte und Ziele verschiedener direkt 1330 die Perspektiven, Werte und Ziele verschiedener direkt und indirekt
958 und indirekt beteiligter Akteur*innen einzubeziehen und diese systematisch zu 1331 beteiligter Akteur*innen einzubeziehen und diese systematisch zu
959 analysieren. Dieser Beitrag erhebt aber keinerlei Anspruch auf Vollständigkeit 1332 analysieren. Dieser Beitrag erhebt aber keinerlei Anspruch auf
960 möglicher ethischer Ansätze, sondern zeigt Ideen und Anregungen auf, wie 1333 Vollständigkeit möglicher ethischer Ansätze, sondern zeigt Ideen und
961 DH-Projekte in der Praxis informationsethisch überprüft und wertebasiert 1334 Anregungen auf, wie DH-Projekte in der Praxis ethisch überprüft
962 gestaltet werden können. Eine Diskussion und Ergänzung der hier vorgestellten 1335 und wertebasiert gestaltet werden können. Eine Diskussion und Ergänzung der
963 Aspekte sind daher wünschenswert. 1336 hier vorgestellten Aspekte sind daher wünschenswert.
964 [57]Um ein DH-Projekt auf Basis von Value 1337
965 Sensitive Design zu gestalten, sind je nach Projekt und Kontext zusätzliche 1338 [84]Um ein DH-Projekt auf Basis von Value Sensitive Design zu gestalten, sind je
966 zeitliche, finanzielle und personelle Ressourcen notwendig. Diese müssen bei der 1339 nach Projekt und Kontext zusätzliche zeitliche, finanzielle und personelle
967 Planung von Projekten und der Beantragung von Mitteln eingeplant werden. Darüber 1340 Ressourcen notwendig. Diese müssen bei der Planung von Projekten und der
968 hinaus muss entweder innerhalb des Projektes oder an zentraler Stelle Expertise 1341 Beantragung von Mitteln eingeplant werden. Darüber hinaus muss entweder
969 zur theoretischen und praktischen Umsetzung von Value Sensitive Design vorhanden 1342 innerhalb des Projektes oder an zentraler Stelle Expertise zur theoretischen
970 sein. Zwei Ideen, um dies für jedes DH-Projekt zu gewährleisten: In den 1343 und praktischen Umsetzung von Value Sensitive Design vorhanden sein. Drei
971 Curricula von DH-Studiengängen könnten Technik- und Informationsethik sowie 1344 Ideen, um dies für jedes DH-Projekt zu gewährleisten: In den Curricula von
972 konkrete methodische Ansätze wie Value Sensitive Design verpflichtend verankert 1345 DH-Studiengängen könnten Technik- und Informationsethik sowie konkrete
973 werden, sodass möglichst viele zukünftige Akteur*innen in den DH die Grundlagen 1346 methodische Ansätze wie Value Sensitive Design verpflichtend verankert
974 wertebasierten Projekt- und Technologie-Designs kennen. Auch die Idee der Data Stewards, also von Expert*innen, 1347 werden, sodass möglichst viele zukünftige Akteur*innen in den DH die
975 die Forschende beim Management von Forschungsdaten unterstützen,[90] kann als 1348 Grundlagen wertebasierten Projekt- und Technologie-Designs kennen. Auch die
976 Anregung dienen: So sind parallel dazu Value 1349 Idee der Data Stewards, also von Expert*innen, die
977 Stewards oder Ethic 1350 Forschende beim Management von Forschungsdaten unterstützen,[138] kann als Anregung
978 Stewards denkbar, die DH-Forschende bei der 1351 dienen: So sind parallel dazu Value Stewards oder
979 informationsethischen Überprüfung und wertebasierten Gestaltung ihrer Projekte 1352 Ethic Stewards denkbar, die DH-Forschende bei der
980 und Technologien beraten. 1353 ethischen Überprüfung und wertebasierten Gestaltung ihrer
981 [58]Darüber hinaus ist es auch mithilfe von 1354 Projekte und Technologien beraten. Ähnlich wie in den Bereichen
982 Value Sensitive Design nicht möglich, Bias vollständig auszuschließen. Wie genau 1355 Forschungsdatenmanagement oder Open Access könnten auch
983 eine Value-Sensitive-Design-Analyse durchgeführt wird, welche Stakeholder 1356 Forschungsförderinstitutionen eine entscheidende Rolle einnehmen:
984 einbezogen, welche empirischen Erhebungen durchgeführt und wie darauf aufbauend 1357 In ihren Förderrichtlinien könnten sie von Forscher*innen fordern,
985 das technische Design und Policies konkret umgesetzt werden, unterscheidet sich 1358 eine Strategie zu entwickeln, um ihr Projekt ethisch zu reflektieren
986 mit großer Wahrscheinlichkeit von Forscher*in zu Forscher*in: Eigene Werte, 1359 und zu gestalten – und diese Strategie bereits in ihrem Förderantrag zu skizzieren.
987 Erfahrungen und Interessen fließen immer bewusst oder unbewusst in die Anwendung 1360
988 des Value-Sensitive-Design-Frameworks ein. Dies ist nicht nur unvermeidlich, 1361 [85]Darüber hinaus ist es auch mithilfe von Value Sensitive Design nicht möglich,
989 sondern auch in Ordnung: Friedman und Hendry resümieren, »we need not require 1362 Bias vollständig auszuschließen. Wie genau eine
990 perfection, but commitment to practice – and through practice, progress«.[91] Value Sensitive Design 1363 Value-Sensitive-Design-Analyse durchgeführt wird, welche Stakeholder
991 garantiert also keine ›ethisch perfekten‹ Technologien – aber das Framework 1364 einbezogen, welche empirischen Erhebungen durchgeführt und wie darauf
992 bietet Unterstützung dabei, Bias so gut wie möglich zu vermeiden und die 1365 aufbauend das technische Design und Policies konkret umgesetzt werden,
993 Auswirkungen von Technologien auf die Gesellschaft zu bedenken, offenzulegen und 1366 unterscheidet sich mit großer Wahrscheinlichkeit von Forscher*in zu
994 zu diskutieren. Zudem ermöglicht Value Sensitive Design, Technologien nicht nur 1367 Forscher*in: Eigene Werte, Erfahrungen und Interessen fließen immer bewusst
995 nach klassischen Kriterien wie Effektivität oder Robustheit zu bewerten – 1368 oder unbewusst in die Anwendung des Value-Sensitive-Design-Frameworks ein.
996 sondern auch nach den Werten, die sie fördern. Das ist ein guter Start, um 1369 Dies ist nicht nur unvermeidlich, sondern auch in Ordnung: Friedman und
997 Technologien und Projekte so zu gestalten, dass sie nicht nur die Digital 1370 Hendry resümieren, »we need not require perfection, but commitment to
998 Humanities, sondern auch die Welt ein wenig besser machen. 1371 practice – and through practice, progress«.[139] Value Sensitive Design garantiert also
999 1372 keine ›ethisch perfekten‹ Technologien – aber das Framework bietet
1373 Unterstützung dabei, Bias so gut wie möglich zu vermeiden und die
1374 Auswirkungen von Technologien auf die Gesellschaft zu bedenken, offenzulegen
1375 und zu diskutieren. Zudem ermöglicht Value Sensitive Design, Technologien
1376 nicht nur nach klassischen Kriterien wie Effektivität oder Robustheit zu
1377 bewerten – sondern auch nach den Werten, die sie fördern. Das ist ein guter
1378 Start, um Technologien und Projekte so zu gestalten, dass sie nicht nur die
1379 Digital Humanities, sondern auch die Welt ein wenig besser machen.
1000 1380
1008 [1] 1388 [1]
1009 Vgl. Gierlinger 2020; Kretschmar 2020. 1389
1010 1390 Vgl.
1391 Gierlinger 2020; Kretschmar 2020.
1011 1392
1013 [2] 1394 [2]
1014 Vgl. Holland 2018. 1395
1015 1396 Vgl. Holland
1397 2018.
1016 1398
1018 [3] 1400 [3]
1019 Vgl. Holland 2021. 1401
1020 1402
1403 Vgl. Holland
1404 2021.
1021 1405
1023 [4] 1407 [4]
1024 Friedman / Nissenbaum 1996, S. 332; Hervorhebungen im 1408
1025 Original. 1409 Friedman /
1026 1410 Nissenbaum 1996, S. 332; Hervorhebungen im Original.
1027 1411
1029 [5] 1413 [5]
1030 Die Erkenntnis, dass Technologien nicht neutral, 1414
1031 sondern von ihren gesellschaftlichen Rahmenbedingungen geprägt sind, ist 1415 Die Erkenntnis, dass Technologien
1032 dabei nicht neu. Bereits in den 1990er-Jahren thematisierten 1416 nicht neutral, sondern von ihren gesellschaftlichen Rahmenbedingungen
1033 verschiedene techniksoziologische Ansätze, dass soziale, politische, 1417 geprägt sind, ist dabei nicht neu. Bereits in den 1990er-Jahren
1034 technische und ökonomische Faktoren die Gestaltung von Technologien 1418 thematisierten verschiedene techniksoziologische Ansätze, dass soziale,
1035 maßgeblich beeinflussen, u. a. Social Construction of Technology (SCOT) 1419 politische, technische und ökonomische Faktoren die Gestaltung von
1036 und Social Shaping of Technology (SST; vgl. Häußling 2019, S. 198–206). 1420 Technologien maßgeblich beeinflussen, u. a. Social Construction of
1037 1421 Technology (SCOT) und Social Shaping of Technology (SST; vgl. Häußling 2019, S. 198–206).
1038 1422
1040 [6] 1424 [6]
1041 Vgl. Roth 2019. 1425
1042 1426 Vgl. Roth
1427 2019.
1043 1428
1045 [7] 1430 [7]
1431
1046 Vgl. Burghardt 2020. 1432 Vgl. Burghardt 2020.
1048 1434
1049
1050 [8] 1435 [8]
1051 Vgl. Rojas Castro 2020; Noble 2019. Warum spielen ethische Aspekte in DH-Projekten 1436
1052 bislang kaum eine Rolle? Noble schreibt in Bezug auf die Reproduktion 1437 Vgl. Rojas Castro 2020;
1053 kolonialer Machtverhältnisse in den Digital Humanities, dass sich die DH 1438 Noble 2019. Warum spielen ethische
1054 als »neutral« und damit »noncolonial«verstehen – dies aber nicht sind 1439 Aspekte in DH-Projekten bislang kaum eine Rolle? Dazu gibt es nach Kenntnis der Autorin
1055 (Noble 2019, S. 28f.). Ein Grund könnte also sein, dass die 1440 keine
1056 ethische Bedeutung und Auswirkung von DH-Projekten den Forschenden nicht 1441 umfassende Untersuchung. Daher kann hier nur ein Erklärungsansatz angeboten werden,
1057 oder kaum bewusst sind. Zudem beschreibt Noble eine Art Teufelskreis: 1442 der
1058 Weil sich die DH nicht eindeutig gegen rassistische und sexistische 1443 sich auf einzelne ethische Aspekte in den DH bezieht: Noble schreibt in Bezug
1059 Gewalt positionieren, verlassen Frauen und Schwarze Menschen das 1444 auf die Reproduktion kolonialer Machtverhältnisse in den Digital
1060 Forschungsfeld (Noble 2019, S. 29f.). Dies könnte wiederum zur Folge haben, 1445 Humanities, dass sich die DH als »neutral« und damit
1446 »noncolonial«verstehen – dies aber nicht sind (Noble 2019, S. 28f.). Ein Grund könnte
1447 also sein, dass die ethische Bedeutung und Auswirkung von DH-Projekten
1448 den Forschenden nicht oder kaum bewusst sind. Zudem beschreibt Noble
1449 eine Art Teufelskreis: Weil sich die DH nicht eindeutig gegen
1450 rassistische und sexistische Gewalt positionieren, verlassen Frauen und
1451 Schwarze Menschen das Forschungsfeld (Noble 2019, S. 29f.). Dies könnte wiederum zur Folge haben,
1061 dass ethische Aspekte im Kontext von Rassismus und Sexismus noch weniger 1452 dass ethische Aspekte im Kontext von Rassismus und Sexismus noch weniger
1062 Beachtung finden. Eine umfassende Untersuchung der Gründe, aus denen 1453 Beachtung finden.
1063 ethische Aspekte in DH-Projekten kaum eine Rolle spielen, steht jedoch
1064 noch aus.
1065
1066 1454
1068 [9] 1456 [9]
1069 Vgl. Deutsche Forschungsgemeinschaft (Hg.) 2019, Leitlinie 10. 1457
1070 1458 Vgl.
1459 Deutsche Forschungsgemeinschaft (Hg.) 2019,
1460 Leitlinie 10.
1071 1461
1073 [10] 1463 [10]
1464
1465 Für eine ausführliche
1466 Zusammenstellung bisheriger Anwendungsbeispiele vgl.
1467 Friedman / Hendry 2019 und Winkler / Spiekermann 2018.
1468
1469
1470 [11]
1471
1472 Vgl. Friedmann /
1473 Nissenbaum 1996.
1474
1475 [12]
1476
1477 Vgl. Wachter-Boettcher 2017, S. 6.
1478
1479
1480 [13]
1481
1482 Vgl. Holland
1483 2018.
1484
1485
1486 [14]
1487
1488 Friedman /
1489 Nissenbaum 1996, S. 334.
1490
1491
1492 [15]
1493
1494 Friedman /
1495 Nissenbaum 1996, S. 334.
1496
1497
1498 [16]
1499
1500 Vgl. Wachter-Boettcher 2018, S. 119–129.
1501
1502
1503 [17]
1504
1505 Friedman /
1506 Nissenbaum 1996, S. 335.
1507
1508
1509 [18]
1510
1511 Vgl. Friedman /
1512 Nissenbaum 1996, S. 335.
1513
1514
1515 [19]
1516
1517 Friedman / Hendry
1518 2019, S. 19.
1519
1520
1521 [20]
1522
1523 Friedman / Hendry
1524 2019, S. 20.
1525
1526
1527 [21]
1528
1529 Vgl. Friedman / Hendry
1530 2019, S. 19f.
1531
1532
1533 [22]
1534
1535 Vgl. Roth 2019;
1536 Burghardt 2020. Die Spielarten von Roth und Burghardt werden in diesem
1537 Beitrag als Grundlage gewählt, da sie u. a. auf Basis einer empirischen
1538 Untersuchung von Zeitschriftenartikeln und Konferenzbeiträgen einen
1539 aktuelleren Überblick über die verschiedenen Teilbereiche der
1540 DH-Forschung geben als Standardwerke wie Jannidis et al. (Hg.)
1541 2017 oder Schreibman et al. (Hg.)
1542 2015.
1543
1544
1545 [23]
1546
1547 Roth 2019,
1548 S. 616.
1549
1550
1551 [24]
1552
1553 Roth 2019,
1554 S. 616.
1555
1556
1557 [25]
1558
1559 Roth 2019,
1560 S. 618.
1561
1562
1563 [26]
1564
1565 Roth 2019,
1566 S. 618.
1567
1568
1569 [27]
1570
1571 Vgl. Roth 2019, S. 623–625.
1572
1573
1574 [28]
1575
1576 Vgl. Burghardt 2020.
1577
1578
1579 [29]
1580
1581 An dieser Stelle herzlichen Dank an Frauke Schade,
1582 die als eine der Reviewerinnen dieses Textes ein Kapitel zu Informationsethik angeregt
1583 hat.
1584
1585
1586 [30]
1587
1588 Rösch 2021, S. 3.
1589
1590
1591 [31]
1592
1593 Vgl. Rösch 2021, S. 33.
1594
1595
1596 [32]
1597
1598 Vgl.
1599 Burgess et al. 2019, S. 3.
1600
1601
1602 [33]
1603
1604
1605 Heesen 2016, S. 2.
1606
1607
1608 [34]
1609
1610 Vgl. Rösch 2021, S. 58.
1611
1612
1613 [35]
1614
1615 Vgl. Rösch 2021, S. 55.
1616
1617
1618 [36]
1619
1620 Grunwald / Hillerbrand 2021, S. 5.
1621
1622
1623 [37]
1624
1625 Grunwald / Hillerbrand 2021, S. 5.
1626
1627
1628 [38]
1629
1630 Vgl. van de Poel 2021, S. 129.
1631
1632
1633 [39]
1634
1635 Vgl. Ernst 2021, S. 110.
1636
1637
1638 [40]
1639
1640 Eine
1641 Übersicht über Ansätze, die Werte beim Design von Technologien einbeziehen, findet
1642 sich z. B. bei Simon 2016
1643 und bei Friedman / Hendry 2019, S.15f.
1644
1645
1646 [41]
1647
1648 Vgl. MacLennan et al. 2020.
1649
1650
1651 [42]
1652
1653 Vgl. Simonsen / Robertson (Hg.) 2013.
1654
1655
1656 [43]
1657
1658 Vgl. Grunwald / Hillerbrand 2021, S. 469.
1659
1660
1661 [44]
1662
1663 Vgl. Friedman
1664 1996.
1665
1666
1667 [45]
1668
1669
1670 So wird der Ansatz sowohl in Handbüchern für Technikethik (Vgl. z. B. Grunwald / Hillerbrand 2021),
1671 als auch in Handbüchern für Informationsethik vorgestellt (Vgl. z. B.
1672 Heesen 2016).
1673
1674
1675 [46]
1676
1677 Vgl.
1678 Friedman et al.
1679 2008, S. 69f.
1680
1681
1682 [47]
1683
1684 Friedman et al.
1685 2008, S. 70.
1686
1687
1688 [48]
1689
1690 Vgl.
1691 Friedman et al.
1692 2008, S. 69.
1693
1694
1695 [49]
1696
1697 Rösch 2021, S. 14.
1698
1699
1700 [50]
1701
1074 Für eine ausführliche Zusammenstellung bisheriger 1702 Für eine ausführliche Zusammenstellung bisheriger
1075 Anwendungsbeispiele vgl. Friedman / Hendry 2019 und Winkler / Spiekermann 2018. 1703 Anwendungsbeispiele vgl. Friedman / Hendry
1076 1704 2019 und Winkler /
1077 1705 Spiekermann 2018.
1078 1706
1079 [11] 1707
1080 Vgl. Friedmann / Nissenbaum 1996. 1708 [51]
1081 1709
1082 1710 Vgl. Friedman / Hendry 2019,
1083 1711 S. 35–44.
1084 [12] 1712
1085 Vgl. Wachter-Boettcher 2017, S. 6. 1713
1086 1714 [52]
1087 1715
1088 1716 Friedman et
1089 [13] 1717 al. 2008, S. 70.
1090 Vgl. Holland 2018. 1718
1091 1719
1092 1720 [53]
1093 1721
1094 [14] 1722 Vgl. Friedman et
1095 Friedman / Nissenbaum 1996, S. 334. 1723 al. 2008, S. 72.
1096 1724
1097 1725
1098 1726 [54]
1099 [15] 1727
1100 Friedman / Nissenbaum 1996, S. 334. 1728 Vgl. Friedman / Hendry 2019, S. 22-29.
1101 1729
1102 1730
1103 1731 [55]
1104 [16] 1732
1105 Vgl. Wachter-Boettcher 2018, S. 119–129. 1733 Alle Friedman / Hendry 2019, S. 28.
1106 1734
1107 1735
1108 1736 [56]
1109 [17] 1737
1110 Friedman / Nissenbaum 1996, S. 335. 1738 Friedman / Hendry 2019, S. 28.
1111 1739
1112 1740
1113 1741 [57]
1114 [18] 1742
1115 Vgl. Friedman / Nissenbaum 1996, S. 335. 1743
1116 1744 Vgl. Friedman et
1117 1745 al. 2008, S. 90f.
1118 1746
1119 [19] 1747
1120 Friedman / Hendry 2019, S. 19. 1748 [58]
1121 1749
1122 1750
1123 1751 Vgl. Friedman et
1124 [20] 1752 al. 2008, S. 72.
1125 Friedman / Hendry 2019, S. 20. 1753
1126 1754
1127 1755 [59]
1128 1756
1129 [21] 1757
1130 Vgl. Friedman / Hendry 2019, S. 19f. 1758 Vgl. Vereinte Nationen Generalversammlung 2014,
1131 1759 S. 8.
1132 1760
1133 1761
1134 [22] 1762 [60]
1135 Vgl. Roth 2019; Burghardt 2020. Die Spielarten von Roth und Burghardt werden in 1763
1136 diesem Beitrag als Grundlage gewählt, da sie u. a. auf Basis einer 1764 Vgl. Friedman et
1137 empirischen Untersuchung von Zeitschriftenartikeln und 1765 al. 2008, S. 73.
1138 Konferenzbeiträgen einen aktuelleren Überblick über die verschiedenen 1766
1139 Teilbereiche der DH-Forschung geben als Standardwerke wie Jannidis et al. (Hg.) 2017 oder Schreibman et al. (Hg.) 2015. 1767
1140 1768 [61]
1141 1769
1142 1770 Friedman /
1143 [23] 1771 Hendry 2019, S. 20.
1144 Roth 2019, S. 616. 1772
1145 1773
1146 1774 [62]
1147 1775
1148 [24] 1776 Winkler /
1149 Roth 2019, S. 616. 1777 Spiekermann 2018, S. 3.
1150 1778
1151 1779
1152 1780 [63]
1153 [25] 1781
1154 Roth 2019, S. 618. 1782 Friedman et
1155 1783 al. 2008, S. 75–80.
1156 1784
1157 1785
1158 [26] 1786 [64]
1159 Roth 2019, S. 618. 1787
1160 1788 Friedman et al. beziehen
1161 1789 sich hier auf Ulrich 1984 und Ulrich 1993 sowie auf Kahn 1999.
1162 1790
1163 [27] 1791
1164 Vgl. Roth 2019, S. 623–625. 1792 [65]
1165 1793
1166 1794 Vgl. Friedman et
1167 1795 al. 2008, S. 75–80.
1168 [28] 1796
1169 Vgl. Burghardt 1797
1798 [66]
1799
1800 Vgl. Friedman et
1801 al. 2008, S. 75–80.
1802
1803
1804 [67]
1805
1806 Vgl. Friedman et
1807 al. 2008, S. 75–80.
1808
1809
1810 [68]
1811
1812 Vgl. Friedman et
1813 al. 2008, S. 75–80.
1814
1815
1816 [69]
1817
1818 Miller et al. 2007
1819 , S. 282.
1820
1821
1822 [70]
1823
1824 Vgl. Miller et al. 2007
1825 , S. 281f.
1826
1827
1828 [71]
1829
1830 Vgl. Miller et al. 2007
1831 , S. 283f.
1832
1833
1834 [72]
1835
1836 Miller et al. 2007
1837 , S. 284.
1838
1839
1840 [73]
1841
1842 Vgl. Miller et al. 2007
1843 , S. 284.
1844
1845
1846 [74]
1847
1848 Vgl. Miller et al. 2007
1849 , S. 284.
1850
1851
1852 [75]
1853
1854 Vgl. Miller et al. 2007
1855 , S. 290.
1856
1857
1858 [76]
1859
1860 Vgl. Miller et al. 2007
1861 , S. 284.
1862
1863
1864 [77]
1865
1866 Miller et al. 2007
1867 , S. 284.
1868
1869
1870 [78]
1871
1872 Vgl. Miller et al. 2007
1873 , S. 284f.
1874
1875
1876 [79]
1877
1878 Vgl. Miller et al. 2007
1879 , S. 285.
1880
1881
1882 [80]
1883
1884 Miller et al. 2007
1885 , S. 286.
1886
1887
1888 [81]
1889
1890 Vgl. Miller et al. 2007
1891 , S. 285f.
1892
1893
1894 [82]
1895
1896 Vgl. Roth
1897 2019, S. 616.
1898
1899
1900 [83]
1901
1902 Simon
1903 2016, S. 363.
1904
1905
1906 [84]
1907
1908 Vgl.
1909 Vereinte Nationen Generalversammlung 2014
1910 , S. 8.
1911
1912
1913 [85]
1914
1915 Zu den direkten Stakeholder gehören
1916 dabei diejenigen, die digitale Archive und Infrastrukturen erstellen
1917 und nutzen. Indirekte Stakeholder sind hingegen diejenigen, die in
1918 den digitalen Archive und Infrastrukturen abgebildet oder
1919 repräsentiert werden (wollen).
1920
1921
1922 [86]
1923
1924 Herzlichen Dank an Swantje Dogunke,
1925 eine der Reviewerin dieses Aufsatzes, für diesen wichtigen Hinweis.
1926
1927
1928
1929 [87]
1930
1931 Buettner 2020, Hervorhebung im Original.
1932
1933
1934 [88]
1935
1936 Buettner 2020.
1937
1938
1939 [89]
1940
1941 Buettner
1942 2021.
1943
1944
1945 [90]
1946
1947 Vgl.
1948 NINES
1949 (Hg.) 2021.
1950
1951
1952 [91]
1953
1954 Risam 2019, S. 51.
1955
1956
1957 [92]
1958
1959 Vgl. NINES (Hg.)
1960 2021.
1961
1962
1963 [93]
1964
1965 Risam
1966 2019, S. 51.
1967
1968
1969 [94]
1970
1971 Risam
1972 2019, S. 51.
1973
1974
1975 [95]
1976
1977 Rojas Castro
1170 2020. 1978 2020.
1172 1980
1173 1981 [96]
1174 [29] 1982
1175 Vgl. Friedman 1996. 1983 Umbrello /
1176 1984 van de Poel 2021, S. 4.
1177 1985
1178 1986
1179 [30] 1987 [97]
1180 Friedman / Hendry 2019, S. 2. 1988
1181 1989 Umbrello /
1182 1990 van de Poel 2021, S. 4.
1183 1991
1184 [31] 1992
1185 Friedman et al. 2008, S. 69. 1993 [98]
1186 1994
1187 1995 Umbrello /
1188 1996 van de Poel 2021, S. 2.
1189 [32] 1997
1190 Vgl. Friedman / Hendry 2019, S. 35–44. 1998
1191 1999 [99]
1192 2000
1193 2001 Umbrello
1194 [33] 2002 / van de Poel 2021, S. 5.
1195 Friedman et al. 2008, S. 70. 2003
1196 2004
1197 2005 [100]
1198 2006
1199 [34] 2007 Vgl. Umbrello /
1200 Vgl. Friedman et al. 2008, S. 72. 2008 van de Poel 2021, S. 4–6.
1201 2009
1202 2010
1203 2011 [101]
1204 [35] 2012
1205 Vgl. Friedman / Hendry 2019, S. 22–29. 2013 Umbrello /
1206 2014 van de Poel 2021, S. 6.
1207 2015
1208 2016
1209 [36] 2017 [102]
1210 Vgl. Friedman et al. 2008, S. 73. 2018
1211 2019 Vgl.
1212 2020 Beisheim 2015.
1213 2021
1214 [37] 2022
1215 Friedman / Hendry 2019, S. 20. 2023 [103]
1216 2024
1217 2025 Vgl.
1218 2026 Umbrello / van de Poel 2021, S. 6f.
1219 [38] 2027
1220 Winkler / Spiekermann 2018, S. 3. 2028
1221 2029 [104]
1222 2030
1223 2031 Vgl. Umbrello / van
1224 [39] 2032 de Poel 2021, S. 6.
1225 Friedman et al. 2008, S. 75–80. 2033
1226 2034
1227 2035 [105]
1228 2036
1229 [40] 2037 Umbrello / van
1230 Friedman et al. beziehen sich hier auf Ulrich 1984 und Ulrich 1993 sowie auf Kahn 1999. 2038 de Poel 2021, S. 9.
1231 2039
1232 2040
1233 2041 [106]
1234 [41] 2042
1235 Vgl. Friedman et al. 2008, S. 75–80. 2043 Umbrello / van
1236 2044 de Poel 2021, S. 10.
1237 2045
1238 2046
1239 [42] 2047 [107]
1240 Vgl. Friedman et al. 2008, S. 75–80. 2048
1241 2049 Umbrello / van
1242 2050 de Poel 2021, S. 9.
1243 2051
1244 [43] 2052
1245 Vgl. Friedman et al. 2008, S. 75–80. 2053 [108]
1246 2054
1247 2055 Vgl. Umbrello / van
1248 2056 de Poel 2021, S. 8-10.
1249 [44] 2057
1250 Vgl. Friedman et al. 2008, S. 75–80. 2058
1251 2059 [109]
1252 2060
1253 2061 Umbrello / van
1254 [45] 2062 de Poel 2021, S. 10.
1255 Eine ausführliche Zusammenstellung bisheriger 2063
1256 Anwendungsbeispiele vgl. Friedman / Hendry 2019 und Winkler / Spiekermann 2018. 2064
1257 2065 [110]
1258 2066
1259 2067 Vgl. Umbrello / van
1260 [46] 2068 de Poel 2021, S. 10-11.
1261 Vgl. Roth 2019, S. 616. 2069
1262 2070
1263 2071 [111]
1264 2072
1265 [47] 2073 Vgl. Umbrello / van
1266 Simon 2016, S. 363. 2074 de Poel 2021, S. 12.
1267 2075
1268 2076
1269 2077 [112]
1270 [48] 2078
1271 Zu den direkten Stakeholder gehören dabei diejenigen, 2079 Vgl. Umbrello / van
1272 die Digitale Archive und Infrastrukturen erstellen und nutzen. Indirekte 2080 de Poel 2021, S. 6.
1273 Stakeholder sind hingegen diejenigen, die in den Digitalen Archive und 2081
1274 Infrastrukturen abgebildet oder repräsentiert werden (wollen). 2082
1275 2083 [113]
1276 2084
1277 2085 Roth
1278 [49] 2086 2019, S. 623.
1279 Vgl. NINES (Hg.) 2021. 2087
1280 2088
1281 2089 [114]
1282 2090
1283 [50] 2091 Vgl.
1284 Risam 2019, S. 51. 2092 Denelezh (Hg.) 2020.
1285 2093
1286 2094
1287 2095 [115]
1288 [51] 2096
1289 Vgl. NINES (Hg.) 2021. 2097 Samoilenko
1290 2098 2017.
1291 2099
1292 2100
1293 [52] 2101 [116]
1294 Risam 2019, S. 51.
1295
1296
1297
1298 [53]
1299 Risam 2019, S. 51.
1300
1301
1302
1303 [54]
1304 Vgl. Friedman / Henry 2019, S. 42.
1305
1306
1307
1308 [55]
1309 Buettner 2020, Hervorhebung im Original.
1310
1311
1312
1313 [56]
1314 Buettner 2020.
1315
1316
1317
1318 [57]
1319 Buettner 2021.
1320
1321
1322
1323 [58]
1324 Rojas Castro 2020.
1325
1326
1327
1328 [59]
1329 Umbrello / van de Poel 2021, S. 4.
1330
1331
1332
1333 [60]
1334 Umbrello / van de Poel 2021, S. 4.
1335
1336
1337
1338 [61]
1339 Umbrello / van de Poel 2021, S. 2.
1340
1341
1342
1343 [62]
1344 Umbrello / van de Poel 2021, S. 5.
1345
1346
1347
1348 [63]
1349 Vgl. Umbrello / van de Poel 2021, S. 4–6.
1350
1351
1352
1353 [64]
1354 Umbrello / van de Poel 2021, S. 6.
1355
1356
1357
1358 [65]
1359 Vgl. Beisheim 2015.
1360
1361
1362
1363 [66]
1364 Vgl. Umbrello / van de Poel 2021, S. 6f.
1365
1366
1367
1368 [67]
1369 Vgl. Umbrello / van de Poel 2021, S. 6.
1370
1371
1372
1373 [68]
1374 Roth 2019, S. 623.
1375
1376
1377
1378 [69]
1379 Vgl. Denelezh (Hg.) 2020.
1380
1381
1382
1383 [70]
1384 Samoilenko 2017.
1385
1386
1387
1388 [71]
1389 2102
1391 2104
1392 2105 [117]
1393 2106
1394 2107 West
1395 [72] 2108 2017, S. 31.
1396 West 2017, S. 31. 2109
1397 2110
1398 2111 [118]
1399 2112
1400 [73] 2113 Vgl. Greb
1401 Vgl. W3C Web Accessibility Initiative, Henry 2021. 2114 2021.
1402 2115
1403 2116
1404 2117 [119]
1405 [74] 2118
1406 Vgl. W3C Web Accessibility Initiative, Henry 2019. 2119 Vgl. Liao 2015, S. 38.
1407 2120
1408 2121
1409 2122 [120]
1410 [75] 2123
1411 Vgl. W3C Web Accessibility Initiative, White 2020. 2124 Vgl. Rösch 2021, S. 74, 87.
1412 2125
1413 2126
1414 2127 [121]
1415 [76] 2128
1416 The Programming Historian (Hg.) 2008-2021. 2129 Vgl. W3C Web
1417 2130 Accessibility Initiative, Henry 2021.
1418 2131
1419 2132
1420 [77] 2133 [122]
1421 Rojas Castro 2020. 2134
1422 2135 Vgl. W3C Web
1423 2136 Accessibility Initiative, Henry 2019.
1424 2137
1425 [78] 2138
1426 Vgl. Directory of Open Access Journals (Hg.) 2021. 2139 [123]
1427 2140
1428 2141 Vgl. W3C Web
1429 2142 Accessibility Initiative, White 2020.
1430 [79] 2143
2144
2145 [124]
2146
2147 The
2148 Programming Historian (Hg.) 2008-2021.
2149
2150
2151 [125]
2152
2153 Rojas Castro
2154 2020.
2155
2156
2157 [126]
2158
2159
2160 Vgl. Directory of
2161 Open Access Journals (Hg.) 2021.
2162
2163
2164 [127]
2165
1431 Vgl. Frick / Kaier 2020. 2166 Vgl. Frick / Kaier 2020.
1433 2168
1434 2169 [128]
1435 [80] 2170
1436 Noble 2019, S. 32. 2171 Vgl. Rösch 2021, S. 147.
1437 2172
1438 2173
1439 2174 [129]
1440 [81] 2175
2176 Vgl. ZfdG 2021a.
2177
2178
2179 [130]
2180
2181 Vgl. ZfdG 2021b.
2182
2183
2184 [131]
2185
2186 Noble
2187 2019, S. 32.
2188
2189
2190 [132]
2191
1441 Noble 2019, S. 30. 2192 Noble 2019, S. 30.
1443 2194
1444 2195 [133]
1445 [82] 2196
1446 Baillot 2021. 2197 Baillot
1447 2198 2021.
1448 2199
1449 2200
1450 [83] 2201 [134]
2202
1451 Vgl. Minimal Computing (Hg.). 2203 Vgl. Minimal Computing (Hg.).
1453 2205
1454 2206 [135]
1455 [84] 2207
1456 Vgl. Rat für Nachhaltige Entwicklung (Hg.) 2019. 2208 Vgl.
1457 2209 Rat für
1458 2210 Nachhaltige Entwicklung (Hg.) 2019.
1459 2211
1460 [85] 2212
2213 [136]
2214
1461 Vgl. Electronics Watch (Hg.) [2020]; Konferenzen für sozial verantwortliche IT-Beschaffung (Hg.) 2215 Vgl. Electronics Watch (Hg.) [2020]; Konferenzen für sozial verantwortliche IT-Beschaffung (Hg.)
1464 2218
1465 2219 [137]
1466 [86] 2220
1467 Vgl. Friedman / Nissenbaum 1996, S. 332. 2221 Vgl. Friedman / Nissenbaum 1996, S. 332.
1469 2223
1470 2224 [138]
1471 [87] 2225
1472 Eine Übersicht über Ansätze, die Werte beim Design
1473 von Technologien einbeziehen, findet sich z. B. bei Simon 2016 und bei Friedman / Hendry 2019, S.15f.
1474
1475
1476
1477 [88]
1478 MacLennan et al. 2020.
1479
1480
1481
1482 [89]
1483 Vgl. Routledge international handbook of
1484 participatory design, Simonsen / Robertson (Hg.) 2013.
1485
1486
1487
1488 [90]
1489 Vgl. Fdm:nrw (Hg.) 2020. 2226 Vgl. Fdm:nrw (Hg.) 2020.
1491 2228
1492 2229 [139]
1493 [91] 2230
1494 Friedman / Hendry 2019, S. 180. 2231 Friedman / Hendry
1495 2232 2019, S. 180.
1496 2233
1497 2234
1498 2235
1499 2236
1500 2237
1501 2238
1502 2239 Bibliografische Angaben
1503 2240
1504 2241
1505 Bibliographische Angaben 2242 Anne Baillot: »Digital Humanities und die Klimakrise« – ein Manifest. In: Digital
1506 2243 Intellectuals. Hg. von Anne Baillot. Blogbeitrag vom 24.08.2021. [online].
1507 2244 Marianne Beisheim: Die ›Agenda 2030 für nachhaltige Entwicklung‹. In:
1508 Anne Baillot: »Digital 2245 Zeitschrift für die Vereinten Nationen und ihre Sonderorganisationen 63 (2015), H.
1509 Humanities und die Klimakrise« – ein Manifest. In: Digital Intellectuals. 2246 6, S. 255–260. [online] [Nachweis im GVK]
1510 Hg. von Anne Baillot. Blogbeitrag vom 24.08.2021. [online].
1511
1512 Marianne Beisheim: Die ›Agenda 2030
1513 für nachhaltige Entwicklung‹. In: Zeitschrift für die Vereinten Nationen und
1514 ihre Sonderorganisationen 63 (2015), H. 6, S. 255–260. [online] [Nachweis im GVK]
1515
1516 Anke Buettner: Gedächtnis mit 2247 Anke Buettner: Gedächtnis mit
1518 Stadtbibliothek. Blog. Blogbeitrag vom 11.11.2020. [online] 2249 Stadtbibliothek. Blog. Blogbeitrag vom 11.11.2020. [online]
1519 2250 Anke Buettner: Kulturerbe-Projekt
1520 Anke Buettner: 2251 #femaleheritage: Vom Spuren legen und Fährten lesen – Ausblick &
1521 Kulturerbe-Projekt #femaleheritage: Vom Spuren legen und Fährten lesen – 2252 Nachlese der Blogparade. In: Münchner Stadtbibliothek. Blog. Blogbeitrag vom
1522 Ausblick & Nachlese der Blogparade. In: Münchner Stadtbibliothek. Blog. 2253 08.03.2021. [online]
1523 Blogbeitrag vom 08.03.2021. [online] 2254 John T. F. Burgess / Emily Knox / Robert Hauptman: Foundations of information ethics.
1524 2255 Chicago 2019. [Nachweis im GVK]
1525 Manuel Burghardt: Theorie und 2256 Manuel Burghardt: Theorie und Digital Humanities –
1526 Digital Humanities – Eine Bestandsaufnahme. In: Digital Humanities Theorie. 2257 Eine Bestandsaufnahme. In: Digital Humanities Theorie. Hg. von AG Digital Humanities
1527 Hg. von AG Digital Humanities Theorie. Blogbeitrag vom 15.05.2020. [online] 2258 Theorie. Blogbeitrag vom 15.05.2020. [online]
1528 2259 Gender Gap in Wikidata. Hg. von Denelezh. In: denelezh.wmcloud.org/gender-gap. Analyse-Tool
1529 Gender Gap in Wikidata. Hg. von 2260 abgerufen am 21.09.2020. [online]
1530 Denelezh. In: denelezh.wmcloud.org/gender-gap. Analyse-Tool abgerufen am 2261 Leitlinien zur Sicherung guter wissenschaftlicher Praxis. Kodex. Hg. von Deutsche
1531 21.09.2020. [online] 2262 Forschungsgemeinschaft. Bonn 2019.
1532 2263 In: zenodo.org/record/3923602. Version 1.0 vom 15.09.2019. DOI: 10.5281/zenodo.3923602Directory of Open Access Journals. Hg. von DOAJ.
1533 Leitlinien zur Sicherung guter 2264 [online]
1534 wissenschaftlicher Praxis. Kodex. Hg. von Deutsche Forschungsgemeinschaft. 2265 Werkzeugsammlung Öffentliche
1535 Bonn 2019. In: zenodo.org/record/3923602. Version 1.0 vom 15.09.2019. DOI: 2266 Beschaffung. Hg. von Electronics Watch. In: electronicswatch.org. Amsterdam.
1536 10.5281/zenodo.3923602 2267 [online]
1537 2268 Waltraud Ernst: Feministische Technikphilosophie.
1538 Directory of Open Access Journals. Hg. 2269 In: Handbuch Technikethik. Hg. von Armin Grunwald und Rafaela Hillebrand. Stuttgart
1539 von DOAJ. [online] 2270 2021, S. 114–118. [Nachweis im GVK]
1540 2271 Dokumentation vom 04.09.2020. Hg. von
1541 Werkzeugsammlung 2272 Fachkonferenzen für sozial verantwortliche IT-Beschaffung. In:
1542 Öffentliche Beschaffung. Hg. von Electronics Watch. In:
1543 electronicswatch.org. Amsterdam. [online]
1544
1545 Dokumentation vom 04.09.2020.
1546 Hg. von Fachkonferenzen für sozial verantwortliche IT-Beschaffung. In:
1547 faire-beschaffung.de. Wustermark 2020. [online] 2273 faire-beschaffung.de. Wustermark 2020. [online]
1548 2274 Claudia Frick / Christian Kaier:
1549 Claudia Frick / Christian 2275 Publikationskosten für Zeitschriftenartikel abseits von
1550 Kaier: Publikationskosten für Zeitschriftenartikel abseits von
1551 Open-Access-Publikationsfonds – Lost in Transformation? In: o-bib. Das 2276 Open-Access-Publikationsfonds – Lost in Transformation? In: o-bib. Das
1552 offene Bibliotheksjournal 7 (2020), H. 2, S. 1–15. Artikel vom 05.05.2020. 2277 offene Bibliotheksjournal 7 (2020), H. 2, S. 1–15. Artikel vom 05.05.2020.
1553 DOI: 10.5282/O-BIB/5586 2278 DOI: 10.5282/O-BIB/5586Batya Friedman: Value-sensitive design. In:
1554 2279 Interactions 3 (1996), H. 6, S. 16–23. [Nachweis im GVK]
1555 Batya Friedman: Value-sensitive
1556 design. In: Interactions 3 (1996), H. 6, S. 16–23. [Nachweis im GVK]
1557
1558 Batya Friedman / David Hendry: Value 2280 Batya Friedman / David Hendry: Value
1560 a. 2019. [Nachweis im GVK] 2282 a. 2019. [Nachweis im GVK]
1561 2283 Batya Friedman / Peter Kahn / Alan Borning:
1562 Batya Friedman / Peter Kahn / Alan 2284 Value Sensitive Design and Information Systems. In: The handbook of
1563 Borning: Value Sensitive Design and Information Systems. In: The 2285 information and computer ethics. Hg. von Kenneth Einar Himma / Herman T.
1564 handbook of information and computer ethics. Hg. von Kenneth Einar Himma / 2286 Tavani. Hoboken, NJ 2008, S. 69–101. [Nachweis im GVK]
1565 Herman T. Tavani. Hoboken, NJ 2008, S. 69–101. [Nachweis im GVK] 2287 Batya Friedman / Helen Nissenbaum: Bias in
1566 2288 computer systems. In: ACM Transactions on Information Systems 14 (1996), H.
1567 Batya Friedman / Helen Nissenbaum: 2289 3, S. 330–347. PDF. [online] [Nachweis im GVK]
1568 Bias in computer systems. In: ACM Transactions on Information Systems 14
1569 (1996), H. 3, S. 330–347. PDF. [online] [Nachweis im GVK]
1570
1571 Marisa Gierlinger: Warum 2290 Marisa Gierlinger: Warum
1573 Artikel vom 12.06.2020. [online] 2292 Artikel vom 12.06.2020. [online]
1574 2293 Minimal Computing: About. Hg. von GO::DH
1575 Minimal Computing: About. Hg. von 2294 Minimal Computing Working Group. In: go-dh.github.io. [online]
1576 GO::DH Minimal Computing Working Group. In: go-dh.github.io. [online] 2295 Verena Greb: 20 Jahre Wikipedia. Acht Dinge,
1577 2296 die es zu wissen lohnt. In: Deutsche Welle vom 15.01.2021. [online]
2297 Handbuch Technikethik. Hg. v. Armin Grunwald und Rafaela Hillerbrand. 2. Auflage.
2298 Stuttgart 2021.
1578 Roger Häußling: 2299 Roger Häußling:
1580 Auflage. Opladen u. a. 2019. [Nachweis im GVK] 2301 Auflage. Opladen u. a. 2019. [Nachweis im GVK]
1581 2302 Shawn Lawton Henry: Introduction to Web
1582 Shawn Lawton Henry: Introduction 2303 Accessibility. Hg. von W3C Web Accessibility Initiative. In:
1583 to Web Accessibility. Hg. von W3C Web Accessibility Initiative. In:
1584 w3.org/WAI/standards-guidelines vom 11.07.2019. Website. [online] 2304 w3.org/WAI/standards-guidelines vom 11.07.2019. Website. [online]
1585 2305 Shawn Lawton Henry: W3C Accessibility Standards
1586 Shawn Lawton Henry: W3C Accessibility 2306 Overview. Hg. von W3C Web Accessibility Initiative. In:
1587 Standards Overview. Hg. von W3C Web Accessibility Initiative. In:
1588 w3.org/WAI/standards-guidelines vom 30.04.2021. [online] 2307 w3.org/WAI/standards-guidelines vom 30.04.2021. [online]
1589 2308 Handbuch Medien- und Informationsethik. Hg. v. Jessica Heesen, Stuttgart 2016. [Nachweis im GVK]
1590 Martin Holland: Amazon: KI zur 2309 Martin Holland: Amazon: KI zur
1592 11.10.2018. [online] 2311 11.10.2018. [online]
1593 2312 Martin Holland: Analyse: KI-Sprachmodell
1594 Martin Holland: Analyse: 2313 GPT-3 hegt tief verankerte Vorurteile gegen Muslime. In: Heise Online vom
1595 KI-Sprachmodell GPT-3 hegt tief verankerte Vorurteile gegen Muslime. In: 2314 25.01.2021. [online]
1596 Heise Online vom 25.01.2021. [online] 2315 Digital Humanities: Eine Einführung. Hg. von Fotis Jannidis / Hubertus Kohle /
1597 2316 Malte Rehbein. Stuttgart 2017 [Nachweis im GVK]
1598 Digital Humanities: Eine 2317 Peter H. Kahn: The human relationship with nature. Development and
1599 Einführung. Hg. von Fotis Jannidis / Hubertus Kohle / Malte Rehbein. 2318 culture. Cambridge, MA. 1999. [Nachweis im GVK]
1600 Stuttgart 2017 [Nachweis im GVK] 2319 Daniél Kretschmar: Rassismus in
1601 2320 Algorithmen. Gesichtserkennung für die Tonne. In: taz.de. Artikel vom
1602 Peter H. Kahn: The human
1603 relationship with nature. Development and culture. Cambridge, MA. 1999. [Nachweis im GVK]
1604
1605 Daniél Kretschmar: Rassismus
1606 in Algorithmen. Gesichtserkennung für die Tonne. In: taz.de. Artikel vom
1607 01.07.2020. [online] 2321 01.07.2020. [online]
1608 2322 Data Stewardship. Hg. von Landesinitiative für
1609 Data Stewardship. Hg. von 2323 Forschungsdatenmanagement. In: fdm.nrw. Duisburg-Essen 2020. [online]
1610 Landesinitiative für Forschungsdatenmanagement. In: fdm.nrw. Duisburg-Essen 2324 Han-Teng Liao: Harnessing the power of collaborative
1611 2020. [online] 2325 filtering. In: China Perspectives (2015), H. 4, S. 35–49. [Nachweis im GVK]
1612 2326 Stuart McLennan / Amelia Fiske / Leo Anthony
1613 Stuart McLennan / Amelia Fiske / 2327 Celi / Ruth Müller / Jan Harder / Konstantin Ritt / Sami Haddadin / Alena
1614 Leo Anthony Celi / Ruth Müller / Jan Harder / Konstantin Ritt / Sami 2328 Buyx: An embedded ethics approach for AI development. In: Nature Machine
1615 Haddadin / Alena Buyx: An embedded ethics approach for AI development. In: 2329 Intelligence 2 (2020), H. 9, S. 488–490. [Nachweis im GVK]
1616 Nature Machine Intelligence 2 (2020), H. 9, S. 488–490. [Nachweis im GVK] 2330 Jessica K. Miller, Batya Friedman, Gavin Jancke:
1617 2331 Value tensions in design. The Value Sensitive Design, development and appropriation
1618 What is NINES? Hg. von NINES 2332
1619 Nineteenth-century Scholarship Online. In: nines.org/about. [online] 2333 of a corproation's groupware system, in: Proceedings of the 2007 International
1620 2334 ACM Conference on Supporting Group Work, S. 281–290. DOI: 10.1145/1316624.1316668What is NINES? Hg. von NINES Nineteenth-century
1621 Safiya Umoja Noble: Toward a 2335 Scholarship Online. In: nines.org/about. [online]
1622 Critical Black Digital Humanities. In: Debates in the Digital Humanities. 2336 Safiya Umoja Noble: Toward a Critical Black Digital Humanities. In:
1623 Hg. von Matthew K. Gold, Lauren F. Klein. Minneapolis, MN 2019, S. 27–35. 2337 Debates in the Digital Humanities. Hg. von Matthew K. Gold, Lauren F. Klein.
1624 [Nachweis im GVK] 2338 Minneapolis, MN 2019, S. 27–35. [Nachweis im GVK]
1625 2339 Ibo van de Poel: Werthaltigkeit der Technik.
1626 Tanja Praske: Blogparade »Frauen 2340 In: Handbuch Technikethik. Hg. von Armin Grunwald und Rafaela Hillebrand. Stuttgart
1627 und Erinnerungskultur #femaleheritage« der Monacensia (11.11.–09.12) mit 2341 2021, S. 132–136. [Nachweis im GVK]
2342 Tanja Praske: Blogparade »Frauen und
2343 Erinnerungskultur #femaleheritage« der Monacensia (11.11.–09.12) mit
1628 Nachklapp. In: pearltrees.com. Inhalt vom 16.02.2021. [online] 2344 Nachklapp. In: pearltrees.com. Inhalt vom 16.02.2021. [online]
1629 2345 The Programming Historian. Hg. von The Programming Historian. 2008–2021. [online]
1630 The Programming Historian. 2346
1631 Hg. von The Programming Historian. 2008–2021. [online] 2347 Wie die Beschaffung fairer IT-Hardware
1632 2348 gelingt. Hg. von Rat für Nachhaltige Entwicklung. In:
1633 Wie die Beschaffung fairer
1634 IT-Hardware gelingt. Hg. von Rat für Nachhaltige Entwicklung. In:
1635 nachhaltigkeitsrat.de/aktuelles. Artikel vom 25.06.2019. [online] 2349 nachhaltigkeitsrat.de/aktuelles. Artikel vom 25.06.2019. [online]
1636 2350 Roopika Risam: New digital worlds. Postcolonial
1637 Roopika Risam: New digital worlds. 2351 digital humanities in theory, praxis, and pedagogy. Evanston, IL 2019. [Nachweis im GVK]
1638 Postcolonial digital humanities in theory, praxis, and pedagogy. Evanston, 2352 Hermann Rösch: Informationsethik und Bibliotheksethik. Grundlagen und Praxis. Berlin,
1639 IL 2019. [Nachweis im GVK] 2353 Boston 2021. [Nachweis im GVK]
1640 2354 Antonio Rojas Castro: FAIR enough? Building DH
1641 Antonio Rojas Castro: FAIR enough? 2355 resources in an unequal world. (Digital Humanities Kolloquium, BBAW,
1642 Building DH resources in an unequal world. (Digital Humanities Kolloquium, 2356 07.08.2020). In: vimeo.com/445147368. Video. [online]
1643 BBAW, 07.08.2020). In: vimeo.com/445147368. Video. [online] 2357 Camille Roth: Digital, digitized, and
1644 2358 numerical humanities. In: Digital Scholarship in the Humanities 34 (2019),
1645 Camille Roth: Digital, digitized, 2359 H. 3, S. 616–632. Artikel vom 05.11.2018. DOI: 10.1093/llc/fqy057 [Nachweis im GVK]
1646 and numerical humanities. In: Digital Scholarship in the Humanities 34
1647 (2019), H. 3, S. 616–632. Artikel vom 05.11.2018. DOI: 10.1093/llc/fqy057 [Nachweis im GVK]
1648
1649 Anna Samoilenko: Multilingual 2360 Anna Samoilenko: Multilingual
1650 historical narratives on Wikipedia. 2017. In: GESIS Data Archive. Datensatz. 2361 historical narratives on Wikipedia. 2017. In: GESIS Data Archive. Datensatz.
1651 Version 1. DOI: 10.7802/1411 2362 Version 1. DOI: 10.7802/1411Judith Simon: Values in Design. In: Handbuch
1652 2363 Medien- und Informationsethik. Hg. von Jessica Heesen. Stuttgart 2016,
1653 Judith Simon: Values in Design. 2364 S. 357–364. [Nachweis im GVK]
1654 In: Handbuch Medien- und Informationsethik. Hg. von Jessica Heesen. 2365 Routledge international handbook of participatory design. Hg. von Jesper
1655 Stuttgart 2016, S. 357–364. [Nachweis im GVK] 2366 Simonsen / Toni Robertson. New York, NY u. a. 2013. [Nachweis im GVK]
1656 2367 Roger S. Ulrich: Biophilia, biophobia, and natural landscapes. In: The
1657 Routledge international handbook 2368 biophilia hypothesis. Hg. von Stephen R. Kellert. Washington, DC u. a. 1993, S.
1658 of participatory design. Hg. von Jesper Simonsen / Toni Robertson. New York, 2369 73–137. [Nachweis im GVK]
1659 NY u. a. 2013. [Nachweis im GVK] 2370 Roger S. Ulrich: View through a window may influence recovery from
1660 2371 surgery. In: Science 224 (1984), H. 4647, S. 420–421. [Nachweis im GVK]
1661 Roger S. Ulrich: Biophilia, 2372 Steven Umbrello / Ibo van de Poel: Mapping
1662 biophobia, and natural landscapes. In: The biophilia hypothesis. Hg. von 2373 Value Sensitive Design onto AI for social good principles. In: AI and Ethics
1663 Stephen R. Kellert. Washington, DC u. a. 1993, S. 73–137. [Nachweis im GVK] 2374 (2021). Artikel vom 01.02.2021. DOI: 10.1007/s43681-021-00038-3 [Nachweis im GVK]
1664 2375 A new companion to digital humanities.
1665 Roger S. Ulrich: View through a window 2376 Hg. von Susan Schreibman / Ray Siemens / John Unsworth. Chichester u. a. 2016. [Nachweis im GVK]
1666 may influence recovery from surgery. In: Science 224 (1984), H. 4647, S. 2377 Sara Wachter-Boettcher: Technically wrong.
1667 420–421. [Nachweis im GVK] 2378 Sexist apps, biased algorithms, and other threats of toxic tech. New York,
1668 2379 NY u. a. 2017. [Nachweis im GVK]
1669 Steven Umbrello / Ibo van de Poel: 2380 Vereinte Nationen Generalversammlung:
1670 Mapping Value Sensitive Design onto AI for social good principles. In: AI 2381 Aktivitätenprogramm für die Durchführung der Internationalen Dekade
1671 and Ethics (2021). Artikel vom 01.02.2021. DOI: 10.1007/s43681-021-00038-3 [Nachweis im GVK] 2382 der Menschen afrikanischer Abstammung. Resolution der Generalversammlung,
1672 2383 verabschiedet am 18. November 2014.
1673 A new companion to digital 2384 Sarah Myers West: Raging Against the Machine:
1674 humanities. Hg. von Susan Schreibman / Ray Siemens / John Unsworth. 2385 Network Gatekeeping and Collective Action on Social Media Platforms. In:
1675 Chichester u. a. 2016. [Nachweis im GVK] 2386 Mobile Media and Communication 5 (2017), H. 3, S. 28–36. DOI: 10.17645/mac.v5i3.989 [Nachweis im GVK]
1676 2387 Kevin White / Shadi Abou-Zahra / Shawn Lawton
1677 Sara Wachter-Boettcher: Technically 2388 Henry: Writing for Web Accessibility – Tips for Getting Started. Hg. von W3C
1678 wrong. Sexist apps, biased algorithms, and other threats of toxic tech. New 2389 Web Accessibility Initiative. In: w3.org/WAI/tips/writing/ vom 01.12.2020.
1679 York, NY u. a. 2017. [Nachweis im GVK] 2390 [online]
1680 2391
1681 Sarah Myers West: Raging Against the 2392 Till Winkler / Sarah Spiekermann: Twenty years
1682 Machine: Network Gatekeeping and Collective Action on Social Media 2393 of Value Sensitive Design: a review of methodological practices in VSD
1683 Platforms. In: Mobile Media and Communication 5 (2017), H. 3, S. 28–36. 2394 projects. In: Ethics and Information Technology 23 (2021), S. 17–21. Artikel
1684 DOI: 10.17645/mac.v5i3.989 [Nachweis im GVK] 2395 vom 21.08.2018. DOI: 10.1007/s10676-018-9476-2 [Nachweis im GVK]
1685 2396 ZfdG (2021a): I wie Impressum. In: Zeitschrift
1686 Kevin White / Shadi Abou-Zahra / 2397 für digitale Geisteswissenschaften. 2021. [online]
1687 Shawn Lawton Henry: Writing for Web Accessibility – Tips for Getting 2398 ZfdG (2021b): P wie Publizieren. In: Zeitschrift
1688 Started. Hg. von W3C Web Accessibility Initiative. In: 2399 für digitale Geisteswissenschaften. 2021. [online]
1689 w3.org/WAI/tips/writing/ vom 01.12.2020. [online]
1690
1691 Till Winkler / Sarah Spiekermann:
1692 Twenty years of Value Sensitive Design: a review of methodological practices
1693 in VSD projects. In: Ethics and Information Technology 23 (2021), S. 17–21.
1694 Artikel vom 21.08.2018. DOI: 10.1007/s10676-018-9476-2 [Nachweis im GVK]
1695
1696
1697
1698
1699
1700 2400
1707 2407
1708 Abb. 1: Die drei 2408 Abb. 1: Die drei Untersuchungsschritte von
1709 Untersuchungsschritte von Value-Sensitive-Design-Analysen. [Leyrer 2021]. 2409 Value-Sensitive-Design-Analysen. [Leyrer 2021].
1710 2410
1711 2411
1712 Abb. 2: Beispiel für eine 2412 Abb. 2: Beispiel für eine Natur-Szene, auf der keine
1713 Natur-Szene, auf der keine Menschen abgebildet werden. Eignet sich auch für 2413 Menschen abgebildet werden. Eignet sich auch für ein kurzes Experiment:
1714 ein kurzes Experiment: Entspannt Sie der Anblick dieser Natur-Szene? 2414 Entspannt Sie der Anblick dieser Natur-Szene? [Wasserfall, Tal, Berge,
1715 [Wasserfall, Tal, Berge, Landschaft, Wald, Bachlauf. Hg. von Free Fotos. In: 2415 Landschaft, Wald, Bachlauf. Hg. von Free Fotos. In: pixabay.com. Bild vom
1716 pixabay.com. Bild vom 08.01.2016]. [online] 2416 08.01.2016]. [online]
1717 2417
1718 2418
1719 Abb. 3: Ausschnitt aus einer 2419 Abb. 3: Ausschnitt aus einer Zusammenstellung der knapp
1720 Zusammenstellung der knapp 200 Blogartikel, die im Kontext der 2420 200 Blogartikel, die im Kontext der #femaleheritage-Blogparade entstanden sind.
1721 #femaleheritage-Blogparade entstanden sind. [Praske 2021] 2421 [Praske
1722 2422 2021]
1723
1724 2423