<?xml version="1.0" encoding="UTF-8"?>
<?xml-model href="https://zfdg.de/sites/default/files/medien/zfdg.rng" type="application/xml" schematypens="http://relaxng.org/ns/structure/1.0"?>
<?xml-model href="https://zfdg.de/sites/default/files/medien/zfdg.rng" type="application/xml" schematypens="http://purl.oclc.org/dsdl/schematron"?>
<TEI xmlns="http://www.tei-c.org/ns/1.0" xmlns:html="http://www.w3.org/1999/html" xmlns:tei="http://www.tei-c.org/ns/1.0" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xhtml="http://www.w3.org/1999/xhtml">
   <teiHeader>
      <fileDesc>
         <titleStmt>
            <title level="a" type="full">Sonifikation. Vermittlungsansätze zwischen Klang und Information</title>
            <title level="a" type="short">Sonifikation</title>
            <respStmt>
               <resp ref="http://id.loc.gov/vocabulary/relators/aut">Author</resp>
               <persName>
                  <forename>Torsten</forename>
                  <surname>Roeder</surname>
                  <email>torsten.roeder@uni-wuerzburg.de</email>
                  <idno type="gnd">1084606364</idno>
                  <idno type="orcid">0000-0001-7043-7820</idno>
                  <affiliation>Universität Würzburg</affiliation>
               </persName>
            </respStmt>
         </titleStmt>
         <editionStmt>
            <edition n="2.0"/>
            <respStmt>
               <resp ref="http://id.loc.gov/vocabulary/relators/dtm">Technische Redaktion</resp>
               <persName>
                  <forename>Martin</forename>
                  <surname>de la Iglesia</surname>
                  <idno type="gnd">1095143719</idno>
                  <idno type="orcid">0000-0002-9319-4793</idno>
               </persName>
            </respStmt>
            <respStmt>
               <resp ref="http://id.loc.gov/vocabulary/relators/pfr">Textredaktion</resp>
               <persName>
                  <forename>Constanze</forename>
                  <surname>Baum</surname>
               </persName>
            </respStmt>         
            <respStmt>
               <resp ref="http://id.loc.gov/vocabulary/relators/trl">Übersetzung des Abstract ins Englische</resp>
               <persName>
                  <forename>Kathleen Marie</forename>
                  <surname>Smith</surname>
               </persName>
            </respStmt>
         </editionStmt>
         <publicationStmt>
            <publisher n="Redaktionssitz">
               <orgName>Herzog August Bibliothek</orgName>
               <address>
                  <addrLine>Lessingplatz 1</addrLine>
                  <addrLine>38304 Wolfenbüttel</addrLine>
               </address>
            </publisher>
            <publisher n="herausgebendes Organ">
               <orgName>Forschungsverbund Marbach Weimar Wolfenbüttel</orgName>
               <address>
                  <addrLine>Burgplatz 4</addrLine>
                  <addrLine>99423 Weimar</addrLine>
               </address>
            </publisher>
            <publisher n="herausgebendes Organ">
               <orgName>Digital Humanities im deutschsprachigen Raum e. V.</orgName>
               <address>
                  <addrLine>Hamburg</addrLine>
               </address>
            </publisher>
            <date n="1.0" when="2018-08-03">03.08.2018</date>
            <date n="2.0" when="2025-06-18">18.06.2025</date>
            <idno type="doi">10.17175/2018_002_v2</idno>
            <idno type="ppn">1019443529</idno>
            <availability status="free">
               <licence target="https://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA 4.0, sofern nicht anders angegeben.</licence>
            </availability>
         </publicationStmt>
         <seriesStmt>
            <title level="j">Zeitschrift für digitale Geisteswissenschaften</title>
            <idno type="doi">10.17175/zfdg.01</idno>
            <idno type="issn">2510-1358</idno>
            <idno type="ppn">819494402</idno>
            <biblScope unit="volume">3</biblScope>
            <biblScope unit="article">1</biblScope>
         </seriesStmt>
         <sourceDesc>
            <p>Born digital: no previous source exists.</p>
         </sourceDesc>
      </fileDesc>
      <encodingDesc>
         <editorialDecl>
            <p>Letzte Überprüfung aller Verweise: <date when="2025-05-15">15.05.2025</date></p>
         </editorialDecl>
         <schemaRef url="https://zfdg.de/sites/default/files/medien/zfdg.odd"/>
      </encodingDesc>
      <profileDesc>
         <textClass>
            <keywords n="Beitragstyp">
               <term>Fachartikel</term>
            </keywords>
            <keywords n="GND">
               <term ref="https://d-nb.info/gnd/7705993-1">Sonifikation</term>
               <term ref="https://d-nb.info/gnd/7705993-1">Multimodalität</term>
               <term ref="https://d-nb.info/gnd/4038971-6">Methodik</term>
            </keywords>
         </textClass>
      </profileDesc>
      <revisionDesc>
         <change when="2025-06-18" n="2.0">Ergänzungen gemäß Gutachten v. a. in Abs. 1.3, 2.1 und 3.4. Sechs Bibliografieeinträge hinzugefügt. TEI-Codierung aktualisiert. Mehrere nicht mehr funktionierende Links ersetzt.</change>
      </revisionDesc>
   </teiHeader>   
   <text xml:lang="de">
      <front>
         <div type="abstract" xml:lang="de">
            <p>Sonifikation ist die Transformation von Daten in Klänge. In den
               Naturwissenschaften dient sie als Komplement visueller Schnittstellen und
               stellt daneben eine alternative Analysemethode dar. Überdies fungiert sie als
               Instrument für die Vermittlung wissenschaftlicher Phänomene. In den digitalen
               Geisteswissenschaften steht die Erprobung von Sonifikation in der Breite jedoch
               noch aus. Der Beitrag referiert methodische Ansatzpunkte der Sonifikation,
               reflektiert perzeptive und epistemologische Aspekte und diskutiert mehrere
               Beispiele aus der Praxis. Abschließend werden einige Möglichkeiten aufgezeigt,
               wie aus eigenen Daten Sonifikationen erstellt werden können.</p>
         </div>
         <div type="abstract" xml:lang="en">
            <p>Sonification is the transformation of data into sounds. In the natural
               sciences, it serves as a supplement to visual interfaces, as an alternative
               method of analysis, and as an instrument for communicating scientific
               phenomena. In the Digital Humanities, sonification and its wide range of
               possibilities has not yet been explored. This paper reports on methodological
               approaches to sonification, reflects on perceptive and epistemological aspects,
               and discusses examples from practice. In closing, several possibilities for
               generating sonification from data will be demonstrated.</p>
         </div>
      </front>
      <body>    
         <div type="chapter">
            <head>1. Positionsbestimmung</head>
            <div type="subchapter">
               <head>1.1 Klang und Information</head>               
               <p>Dieser Aufsatz widmet sich dem rätselhaften Verhältnis zwischen Klang und
                  Information. Rätselhaft deshalb, weil zunächst keine offensichtliche Relation
                  zwischen der meist als konkret und persistent wahrgenommenen <quote>Information</quote> und dem
                  transitorischen, oft als unkonkret empfundenen <quote>Klang</quote> besteht. Im kulturellen Alltag
                  jedoch sind beide in einer engen Beziehung anzutreffen. Wir kennen dies
                  beispielsweise vom Wechselspiel zwischen lesbarer Notenschrift und erklingender
                  Musik: Information und Klang stehen dabei in einem Verhältnis, das durch die
                  allgemeine Musiklehre konventionell definiert ist. Beispielsweise können wir der
                  allgemeinen Konvention entnehmen, dass der Ton d′′ im Violinschlüssel auf der zweiten
                  Notenlinie von oben notiert wird, der Ton h′ hingegen auf der dritten. Ähnlich dazu
                  bestehen Übertragungsregeln für Zeitmaße, für Lautstärke, Klangerzeugung,
                  Ausdrucksweise und viele andere Parameter, die sich auf Basis der klassischen
                  Musiknotation in horizontalen Systemen herausgebildet haben. Auch wenn dieses
                  Verhältnis nicht im mathematischen Sinne <quote>eineindeutig</quote> (bijektiv), also nicht in
                  beide Richtungen eindeutig abbildbar ist, gelingt es häufig, aller
                  Übertragungs-Unschärfen und interpretationsabhängigen Abweichungen zum Trotz, aus
                  einer musikalischen Notation ein wiedererkennbares akustisches Abbild zu erzeugen.
                  Der Gewohnheit nach bezeichnen wir dies als <quote>Musizieren</quote> und schreiben diesem eine
                  enorme kulturelle und gesellschaftliche Bedeutung zu. Zusammengefasst heißt das: Um
                  aus schriftlich fixierten Informationen Klänge abzuleiten, werden zunächst einige
                  Regeln befolgt, und diese in eine akustische Form gebracht, die den instrumentalen
                  und räumlichen Umständen sowie der Erwartung der potenziellen Rezipienten angemessen
                  ist.</p>
            </div>
            <div type="subchapter">
               <head>1.2 Eine Analogie: Visualisierungen</head>               
               <p>Alternative Abbildungsverfahren von Informationen, insbesondere unter dem Schlagwort
                  <quote>Visualisierungen</quote>, sind in den digitalen Geisteswissenschaften derzeit <hi rend="italic">en vogue</hi>. Es gilt, neue Abbildungsverfahren zu erproben, die
                  alternative Sichtweisen auf Daten eröffnen und neue Lesarten ermöglichen. Längst
                  gehen die verfügbaren Verfahren weit über die konventionellen Schemata wie Globus,
                  Kalender und Diagramm hinaus. Jüngst richtete sich das Interesse zum Beispiel auf
                  Beziehungsgeflechte und multidimensionale Darstellungen, also solche, in denen
                  strukturelle oder qualitative Parameter, die über rein metrische Dimensionen
                  hinausgehen, abgebildet werden können. Spätestens die 3. DHd-Jahrestagung mit dem
                  Titel <ref target="http://dhd2016.de/">Modellierung. Vernetzung.
                     Visualisierung</ref> 2016 in Leipzig hat
                  ein zentrales Desiderat verdeutlicht: Es genügt nicht, komplexe Daten in Strukturen
                  einzufassen, sondern die dabei entstehenden Relationen sind auch auf möglichst
                  anschauliche, also der menschlichen Wahrnehmung angemessenen Weise einer Auswertung
                  zuzuführen. Dies fördert sowohl neue Erkenntnisse als auch neue Fragestellungen
                  zutage.</p>
               <p>Die Erzeugnisse dieser kreativen Datenverarbeitung sind vielfältig und die
                  Algorithmen ihrer Generierung lediglich durch die menschliche Vorstellungskraft
                  begrenzt. Zum Teil erreichen Visualisierungen sogar künstlerische Qualität, wie
                  beispielsweise das Postkarten-Projekt <ref target="http://www.dear-data.com/theproject">Dear Data</ref> von Giorgia
                  Lupi und Stefanie Posavec zeigt: Die Autorinnen verarbeiteten alltägliche Erfahrungen
                  in handgezeichneten, narrativen Diagrammen.<note type="footnote"> <ref type="bibliography" target="#lupi_data_2015">Lupi / Posavec
                     2015</ref>.</note> Der Erkenntniswert dieser Abbildungen ist vielfach noch auszuloten,
                  da das ›Lesen‹ in solchen Grafiken bislang nur ansatzweise kultiviert ist. Doch sind
                  Visualisierungen das beste Beispiel dafür, dass derzeit ein großes Interesse an der
                  Erschließung alternativer Erkenntnismethoden besteht. Dabei drängt sich die Frage
                  auf, ab welchem Punkt die Nutzung des Sehsinns an ihre Grenzen stößt und zusätzliche
                  Mittel notwendig sind, um komplexe Zusammenhänge angemessen oder noch umfassender
                  erfahrbar zu machen.</p>
               <p>Anknüpfend an die einleitenden Überlegungen zum Verhältnis zwischen Klang und
                  Information stellt sich die Frage, ob es denkbar ist, das Prinzip der
                  Visualisierung – also aus Information erfahrbare Bilder zu generieren – in den akustischen
                  Bereich zu übertragen. Das hieße, aus Informationen erfahrbare Klänge zu
                  erzeugen. Derartige ›Sonifikationen‹ wären dann, analog zu
                  Visualisierungen, mögliche Darstellungsformen von Information, die nach
                  vorher bestimmten Regeln chiffriert und entsprechend auch dechiffrierbar
                  sind. Der vorliegende Beitrag erkundet dieses Thema aus der Sicht der
                  digitalen Geisteswissenschaften und möchte dessen Potenziale sichtbar
                  machen, um einen Impuls für die Erprobung dieses alternativen Verfahrens
                  zu geben und endlich auch die Möglichkeiten des Hörsinns für die
                  Datenexploration auszuschöpfen.</p>
               <p>Seit einigen Jahren wird in den Naturwissenschaften bereits ein alternativer Ansatz
                  verfolgt, der Informationen nicht grafisch, sondern akustisch umsetzt.
                  Dieses Verfahren nennt sich ›Sonifikation‹. Dabei geht man davon aus,
                  dass <quote>der Hörsinn in vielen Fällen ein hohes Potenzial besitzt,
                     zum Sehsinn komplementäre Informationen auf einfache Weise zu
                     vermitteln</quote>.<note type="footnote">
                        <ref type="bibliography" target="#grond_sonifikation_2009">Grond /
                           Schubert-Minski 2009</ref>; vgl. auch <ref type="bibliography"
                              target="#hermann_sonificationhandbook_2011">Hermann et al.
                              2011</ref>, S. 3.</note> Dieses Zitat weist zum einen auf die
                  Chancen hin, die in der gegenseitigen Ergänzung verschiedener Verfahren
                  liegen und deutet zum anderen an, dass die Möglichkeiten der
                  Sonifikation noch längst nicht ausgelotet sind.<note type="footnote"
                     >Vgl. <ref type="bibliography" target="#schoon_klaenge_2012">Schoon
                        / Volmar 2012</ref>, S. 14.</note> Deshalb eröffnet die
                  Erkundung von Sonifikationsverfahren die Möglichkeit, der Dominanz der
                  Visualisierungen eine Alternative gegenüber zu stellen und den Weg für eine weitere methodische Diversifizierung zu
                  beschreiten.</p>
            </div>
            <div type="subchapter">
               <head>1.3 Qualitäten des Gehörs</head>               
               <p>Vergleicht man die Qualitäten der Wahrnehmungskanäle, wird schnell deutlich, dass die
                  menschliche Wahrnehmung allgemein durch den Sehsinn dominiert wird.<note
                     type="footnote"> In der Biologie ist dafür der Begriff ›Leitsinn‹
                     geläufig.</note> Als ›wahr‹ gilt vorrangig, was man ›mit eigenen
                  Augen‹ sieht: das geschriebene Wort, eine Zeichnung, eine Fotografie.
                  Zwar dient der Hörsinn nicht minder dem Erkenntnisgewinn, wird in dieser
                  Hinsicht aber häufig geringer eingeschätzt.<note type="footnote"
                     ><quote>sonification violates established customs of scientific
                        data display and thus makes evident how much is taken as
                        self-evident about what constitutes an acceptable way of
                        representing scientific data</quote>. <ref type="bibliography"
                           target="#supper_search_2012">Supper 2012</ref>, S. 250; vgl.
                     außerdem die Erläuterungen zu verschiedenen <quote>listening
                        modes</quote> in <ref type="bibliography"
                           target="#hermann_sonification_2011">Hermann 2011</ref>, S.
                     400.</note> Das gesprochene Wort ist flüchtiger, unverbindlicher als
                  das Schwarz auf Weiß geschriebene, verbürgte Wort. Zudem: Beim Hören von
                  Klängen sind emotionale Kanäle stärker beteiligt, weshalb es als stark
                  subjektiv geprägt und weniger erkenntnismächtig angesehen wird.<note
                     type="footnote">Vgl. dazu den Kommentar zur <quote>Two Cultures
                        Debate</quote> in <ref type="bibliography"
                           target="#barrass_sonification_2011">Barrass / Vickers
                           2011</ref>, S. 152, dort auch Fußnote 6.</note> Transitorität und
                  Subjektivität prägen landläufig den Charakter des
                  Hörens; so bestätigte eine Studie
                  des University College London, dass auditive Medien wie Hörbücher
                  deutlich stärkere emotionale und physiologische Reaktionen hervorrufen
                  als entsprechende Videos (<ref type="bibliography" target="#richardson_engagement_2018">Richardson et al. 2018</ref>). In dieser dichteren
                  neuronalen Verschaltung kann durchaus ein vielleicht zu selten in
                  wissenschaftlichen Kontexten genutzter Vorteil
                  liegen.</p>
               <p>Ein analytisches Hören, das Klangstrukturen identifizieren und diskriminieren kann,
                  ist erlernbar, dem Anschein nach jedoch ausgebildeten Musikern oder Sounddesignern und somit nur einer
                  bestimmten Gruppe vorbehalten (die dem Anschein nach sonderbegabt, aber
                  vor allem gut trainiert ist). Dass akustische Herangehensweisen im
                  Bereich der wissenschaftlichen Informationsvermittlung deshalb keine
                  Alternative gegenüber visuellen Methoden darstellen könnten, gilt es zu
                  hinterfragen. Denn analytisches Hören ist grundsätzlich von jeder Person
                  mit intaktem Gehör erlernbar und nicht nur ›Wunderkindern‹ vorbehalten.
                  In der Tat ist das menschliche Gehör dem Sehsinn ebenbürtig
                  oder in einigen Aspekten sogar voraus: Es kann eine Vielzahl an Parametern wie
                  Tonhöhe, Lautstärke, Zeitproportionen, Klangqualität, Richtung und
                  Entfernung von Schallquellen, auch verdeckten und nicht sichtbaren, gleichzeitig
                  unterscheiden, und dies bei einer deutlich höhreren zeitlichen Auflösung. Die Übertragung auf die analytische Ebene
                  erfordert lediglich etwas Übung. Darüber hinaus besitzt das Gehör die
                  besondere Qualität, mehrere simultane Prozesse, beispielsweise
                  verschiedene Stimmen, nicht nur wahrzunehmen und zu unterscheiden, sondern auch selektiv zu filtern (der sogenannte
                  »Cocktailparty-Effekt«).</p>
               <p>Das Gehör ist ein feingranularer Sinn auf allen Ebenen. Bereits geringfügige und
                  insbesondere kurz aufeinanderfolgende Veränderungen eines Parameters kann es
                  unmittelbar wahrnehmen, während beim Sehsinn mit einer biochemisch bedingten Latenz
                  zu rechnen ist.<note type="footnote">Vgl. <ref type="bibliography" target="#wardle_time_1998">Wardle 1998</ref>, S. 442. Wardle weist darauf
                     hin, dass dieser Nachteil vom Gehirn durch Antizipation teilweise ausgeglichen
                     wird.</note> Auch fließende Veränderungen – vom Auge häufig nicht wahrgenommen –
                  erzeugen im Gehör eine unmittelbare Signalwirkung. Im Alltag sind deshalb zahlreiche
                  <quote>Auditory Displays</quote> im Gebrauch, etwa der Warnpieper, der beim Einparken hilft und im
                  Vergleich zu einer grafischen Darstellung eine deutlich stärkere Wirkung entfaltet.
                  Insofern erfüllen Gehör und Sehsinn sehr unterschiedliche, oft sogar komplementäre
                  Zwecke.</p>
            </div>
         </div>
         <div type="chapter">
            <head>2. Methodische Ansatzpunkte</head>
            <div type="subchapter">
               <head>2.1 Definition</head>
               <p>Die von der <ref target="https://web.archive.org/web/20250415165913/https://icad.org/">International Community for Auditory
                  Display</ref> (ICAD) herausgegebene Definition der Sonifikation lautet:</p>
               <p><quote type="grosszitat">Sonification [is the] use of nonspeech audio to convey information; more
                  specifically sonification is the transformation of data relations into perceived
                  relations in an acoustic signal for the purposes of facilitating communication or
                  interpretation.</quote><note type="footnote">Zitiert nach <ref type="bibliography" target="#schoon_klaenge_2012">Schoon / Volmar 2012</ref>, S.
                     11.</note>
               </p>
               <p>Diese Definition betont die kommunikativen Eigenschaften, die Sonifikation trotz des
                  Verzichts auf Sprache innewohnen. Die folgende Definition aus dem Sonification
                  Handbook legt den Schwerpunkt hingegen auf die Reproduzierbarkeit der sonifizierten
                  Informationen und zielt damit auf die wissenschaftliche Nutzbarkeit:</p>
               <p><quote type="grosszitat">Sonification is the data-dependent generation of sound, if the transformation is
                  systematic, objective and reproducible, so that it can be used as scientific
                  method.</quote><note type="footnote">
                     <ref type="bibliography" target="#hermann_taxonomy_2008">Hermann
                        2008</ref>, S. 1. Dort findet sich außerdem eine Aufschlüsselung der kompakten
                     Formulierung: »Any technique that uses data as input, and generates
                     (eventually only in response to additional excitation or triggering)
                     sound signals may be called sonification, if and only if (A) the
                     sound reflects properties / relations in the input data. (B) the
                     transformation is completely systematic. This means that there is a
                     precise definition of how interactions and data cause the sound to
                     change. (C) the sonification is reproducible: given the same data
                     and identical interactions/triggers the resulting sound has to be
                     structurally identical. (D) the system can intentionally be used
                     with different data, and also be used in repetition with the same
                     data.«</note>
               </p>
               <p>Sonifikationsverfahren werden innerhalb des Technologiezweigs <quote>Auditory
                  Display</quote> seit den 1990ern erprobt<note type="footnote">Vgl.
                     <ref type="bibliography" target="#flowers_years_2005">Flowers
                        2005</ref>, passim.</note> und haben das experimentelle Stadium
                  längst hinter sich gelassen.</p>
            </div>
            <div type="subchapter">
               <head>2.2 Verbreitung</head>               
               <p>Die bisher entwickelten Sonifikationen werden bereits zu diversen Zwecken
                  eingesetzt,<note type="footnote">Vgl. <ref type="bibliography" target="#schoon_klaenge_2012">Schoon / Volmar 2012</ref>, S. 12.</note> darunter
                  zur Auswertung von sehr großen Datenmengen (Big Data) oder komplexen Strukturen.<note type="footnote">Vgl. <ref type="bibliography" target="#kramer_sonification_2010">Kramer et al. 2010</ref>, passim.</note> Dabei fällt auf, dass
                  Sonifikation unter anderem in Physik, Meteorologie und Medizin (darunter auch
                  Blindenleitsysteme) bereits auf fortgeschrittenem Niveau angewendet wird,<note type="footnote">So beispielsweise in der <ref target="http://sonify.psych.gatech.edu/publications/">Publikationsliste des Sonification Lab</ref> am Georgia
                     Institute of Technology.</note> während die Methode in den Geisteswissenschaften
                  in der Breite so gut wie gar nicht repräsentiert ist: Die internationale Tagung <ref target="https://dh2017.adho.org/">Digital Humanities 2017</ref> verzeichnete
                  lediglich einen einzigen Beitrag, der auditive Elemente als Analysemethode
                  einsetzte.<note type="footnote">Vgl. <ref type="bibliography" target="#kaufman_space_2017">Kaufman 2017</ref>, passim.</note> Iain Emsley
                  unternahm als einer der ersten den Versuch, Sonifikation im Bereich der Digital
                  Humanities als Komplement zu Visualisierungen anzuwenden.<note type="footnote">Vgl.
                     <ref type="bibliography" target="#emsley_sonification_2016">Emsley 2016</ref>, passim.</note> Emsley und De Roure stellten in einem Aufsatz für das
                  <ref target="https://journal.tei-c.org/">TEI Journal</ref> ein
                  Verfahren zur Analyse von Shakespeares <hi rend="italic">Hamlet</hi> vor.<note type="footnote">Vgl. <ref type="bibliography" target="#emsley_discourse_2016">Emsley / De Roure 2016</ref>, passim.</note> Außerdem entstanden
                  einige Sonifikationen im größeren Umfeld der Digital Humanities: Zu nennen sind <ref target="http://listen.hatnote.com/">Listen to Wikipedia</ref>
                  <note type="footnote">Vgl. <ref type="bibliography" target="#laporte_wikipedia_2013">LaPorte / Hashemi 2013</ref>, passim.</note> sowie <ref target="https://codingdavinci.de/projects/2016/klang_der_sterne.html#project">Klang der Sterne</ref> und <ref target="https://codingdavinci.de/projects/2016/sound_of_sails.html#project">Sound of Sails</ref> (beide entstanden im
                  Rahmen von <ref target="https://codingdavinci.de/">Coding da
                     Vinci</ref> 2016).<note type="footnote">Vgl. Coding da Vinci - Projekte 2016: <ref type="bibliography" target="#trostel_klang_2016">Klang der Sterne</ref>; 
                        <ref type="bibliography" target="#CodingdaVinci_sound_2016">SOS – Sound of Sails</ref>.</note> In der Summe bilden diese vereinzelten Sonifikationen immerhin
                  einen kleinen Pool an Referenzen oder Ansatzpunkten für zukünftige Projekte.</p>
            </div>
            <div type="subchapter">
               <head>2.3 Funktionen</head>               
               <p>Im Folgenden werden drei Bereiche erörtert, in denen Sonifikation besondere Stärken
                  aufweist: Komplementarität, Höranalyse und Wissenschaftsvermittlung.</p>
            </div>
            <div type="subchapter">
               <head>2.3.1 Komplementarität</head>               
               <p>Der Kultursoziologe Gerhard Schmied wies darauf hin, dass das Hören der wichtigste
                  Ergänzungssinn zum Sehen ist.<note type="footnote">Vgl. <ref type="bibliography" target="#schmied_ohren_2016">Schmied 2016</ref>, S. 122.</note>
                  Häufig entsteht erst durch die Kombination von Wahrnehmungskanälen, die sehr
                  unterschiedliche Funktionen erfüllen, eine sinnvolle Interpretation.<note type="footnote">Vgl. <ref type="bibliography" target="#madhyastha_data_1995">Madhyastha / Reed 1995</ref>, S. 45.</note> Dies deutet auf das
                  große Potenzial von Sonifikationen hin: Sie können Visualisierungen verstärken oder
                  auch komplementär ergänzen. Dieses Prinzip kommt in der pädagogischen
                  Wissenschaftsvermittlung bereits zum Einsatz: <quote>Wenn wir mehr ›Eingangskanäle‹
                     benutzen, erhöhen wir den Wirkungsgrad, mit dem wir Lerninhalte vermitteln.</quote><note type="footnote">Vgl. <ref type="bibliography" target="#spinola_arbeitsweise_1988">Spinola 1988</ref>, S. 48.</note> Außerdem erfordern komplexe
                  Daten, wie sie in den digitalen Geisteswissenschaften oft vorliegen, eine angemessen
                  komplexe Präsentation. Durch die Kombination von visuellen und auditiven Parametern,
                  also durch Verteilung auf mehrere Wahrnehmungskanäle, kann grundsätzlich eine höhere
                  Dichte an Information simultan dargestellt werden.</p>
               <p>In der Komplementarität der Wahrnehmungskanäle liegt außerdem der Vorteil, dass
                  visuelle und auditive Elemente nicht zwingend dieselben Prozesse abbilden müssen.
                  Beispielsweise können zusätzliche Informationen durch eine Sonifikation abgespielt
                  werden, während der Nutzer eine visuelle Schnittstelle bedient. In Computerspielen
                  werden Soundeffekte und Musik oft dynamisch in Reaktion auf das Spielgeschehen
                  erzeugt. In den digitalen Geisteswissenschaften könnten Datenbankanwendungen oder
                  Editionen eine interaktive Klangspur erhalten. Des Weiteren können Sonifikationen für
                  Personen mit eingeschränkter Sehfähigkeit einen explorativen Datenzugang bieten, wie
                  er sonst nur über Visualisierungen gegeben ist. In der <ref target="https://www.youtube.com/watch?v=8hUIAnXtlc4">Sonification for Blind Users</ref> werden Stereo-Effekte für die Umsetzung
                  der geographischen Dimension genutzt.<note type="footnote">Vgl. <ref type="bibliography" target="#zhao_isonic_2005">Zhao et al. 2005</ref>. Zu
                     sonifizierten Interfaces für Sehbehinderte vgl. außerdem <ref type="bibliography" target="#woertwein-image_2016">Wörtwein et al. 2016</ref>
                     sowie <ref type="bibliography" target="#spagnol_sonification_2016">Spagnol et al. 2016</ref>.</note> Interaktion ist somit aus sehr unterschiedlichen
                  Gründen ein wichtiger Aspekt der Sonifikation.</p>
            </div>
            <div type="subchapter">
               <head>2.3.2 Höranalyse</head>               
               <p>Höranalytische Vorgänge laufen weitgehend unbewusst ab. Um das Potenzial von
                  Sonifikationen auszuschöpfen, gilt es zunächst, ein bewussteres analytisches Hören zu
                  entwickeln: <quote>By engaging with the data in a process of analytic listening, patterns
                     may emerge which are otherwise undetectable.</quote><note type="footnote"> <ref type="bibliography" target="#dombois_audification_2011">Dombois / Eckel
                        2011</ref>, S. 307.</note> Bereits Gottfried Wilhelm Leibniz konstatierte in seinem viel
                  zitierten Ausspruch, dass Musik <quote>die verborgene Rechenkunst des seines Zählens
                     unbewussten Geistes</quote><note type="footnote"><quote>Musica est exercitium arithmeticae
                        occultum nescientis se numerare animi</quote>, Brief von Gottfried Wilhelm Leibniz an
                        Christian Goldbach vom 17. April 1712, vgl. <ref type="bibliography" target="#leibniz_brief_1712">Leibniz 1712</ref>, S. 241.</note> sei. Und tatsächlich beruht der
                  wissenschaftliche Erfolg von Sonifikationen häufig auf zufällig entdeckten
                  Klangmustern, die sich nicht in das erwartete Schema fügten, und so den Blick auf ein
                  bislang nicht berücksichtigtes Phänomen lenkten,<note type="footnote">Vgl. <ref type="bibliography" target="#economist_this_2016">The Economist
                     2016</ref>, passim.</note> wie es beispielsweise Robert Alexander bei der Analyse von
                  Sonnenstürmen widerfuhr (mehr dazu im <ref type="intern" target="#hd14">Abschnitt 3.2</ref>).<note type="footnote">Vgl.
                     <ref type="bibliography" target="#frazier_sonification_2013">Frazier 2013</ref>: <quote>I heard some harmonics that sounded particularly strong and
                        potentially interesting, but the group wasn’t looking at that data.</quote></note> Hier
                  tut sich möglicherweise eine Parallele zur Metapher des <quote>Information Flaneur</quote> auf,
                  der beim Wandern durch Datenlandschaften auf interessante Phänomene stößt.<note type="footnote">Vgl. <ref type="bibliography" target="#doerk_information_2011">Dörk et al. 2011</ref>, passim.</note>
               </p>
               <p>Potenzial ist deshalb auch in ›autonomen‹ Sonifikationen zu sehen, die nicht nur als
                  Komplement einer visuellen Schnittstelle fungieren können, sondern auch als davon
                  unabhängiger, exklusiv auditiver Datenzugang. Dies dient nicht nur Personen mit
                  eingeschränkter Sehfähigkeit, sondern bietet auch die Chance, die analytischen
                  Fähigkeiten des Gehörs auszuschöpfen, denn schließlich reagiert es auf gänzlich
                  andere Reize als der Sehsinn und wird auf ganz andere Phänomene aufmerksam. Der
                  Hörzugang ist allgemein noch nicht so stark vorstrukturiert, so dass (zumindest
                  bislang) kaum Standardrezepte existieren, dafür aber umso mehr Spielraum für
                  Experimente. Hier ist Geduld gefragt. Ein Klangmuster, das dem Hörer zunächst nicht
                  ungewöhnlich erscheint, kann nach einem Lernprozess – möglicherweise schon beim
                  zweiten Anhören – bereits ganz anders wahrgenommen werden. Eine Denkhürde besteht
                  darin, eine Sonifikation zu entwerfen, die noch nicht auf bestimmte Wirkungen oder
                  Erwartungen hin durchgestaltet ist, sondern sich zunächst mit der Aufgabe begnügt,
                  eine klingende Repräsentation zu erzeugen, die vom Gehör dann zunächst rein akustisch
                  – das heißt hier: ohne vordefinierte Begrifflichkeiten – analysiert werden kann.</p>
            </div>
            <div type="subchapter">
               <head>2.3.3 Wissenschaftsvermittlung</head>               
               <p>Sonifikationen bergen laut Brad Rassler eine große Chance für die
                  Wissenschaftsvermittlung: <quote>When the numbers become a soundscape,
                     researchers can hear information that has escaped their eyes, and
                     the music’s disposition can reveal the meaning of complex systems to
                     nonscientists, often in a single sitting.</quote><note
                        type="footnote">
                        <ref type="bibliography" target="#rassler_art_2016">Rassler
                           2016</ref>.</note> In der Tat steckt darin eine weitere Stärke
                  von Sonifikationen: Sie können Prozesse und Ereignisse, die mit dem
                  Auge nicht wahrnehmbar sind, erfahrbar und dadurch zugänglich machen. Dies zielt weniger auf die Analyse von
                  Daten als vielmehr auf den Einsatz von Sonfikationen für die mediale
                  Präsentation.</p>
               <p>Dies führt zum epistemologischen Aspekt der Sonifikation: Was müssen Sonifikationen
                  leisten, um als <quote>objektiv</quote> gelten zu können? Grundsätzlich ist eine objektive
                  Metrisierung durch einen Sonifikationsalgorithmus gegeben. Solange der Algorithmus
                  dokumentiert ist und die zugrundeliegenden Daten ebenfalls verfügbar sind, bleibt die
                  Sonifikation reproduzierbar und transparent. Eine Sonifikation macht die Daten jedoch
                  nicht wie in einem Diagramm ablesbar, sondern übergibt sie zur Analyse an das Gehör.
                  An dieser Stelle interferieren häufig die ästhetischen Erwartungen des Nutzers.</p>
               <p>In der Tat besitzen Sonifikationen aufgrund ihrer Nähe zur Musik einen besonderen
                  Hang dazu, in einer nicht näher festgelegten Art und Weise ästhetisch oder zumindest
                  klanglich ansprechend gestaltet zu werden. Dies tritt spätestens dann ein, wenn es um
                  die öffentliche Präsentation geht. Alexandra Supper wies diesbezüglich auf eine große
                  Diversität hin:</p>
               <p><quote type="grosszitat">While some sonifications lull the listeners with the sound of orchestral music,
                  others might prompt them to dance to a techno beat, while yet others stay clear of
                  any musical connotation and instead rely on abstract clicks reminiscent of a Geiger
                  counter.</quote><note type="footnote"> <ref type="bibliography" target="#supper_search_2012">Supper 2012</ref>, S. 250.</note>
               </p>
               <p>Sonifikationen werden für eine öffentlichkeitswirksame Präsentation gerne
                  nachbearbeitet, für Videos aufbereitet oder sogar mit Musikinstrumenten live
                  gespielt. Dies ragt in den Bereich der <quote>Musifikation</quote> hinein, wo die Ästhetik in den
                  Vordergrund tritt. Für die Vermittlungsfunktion spielt dies eine wichtige Rolle. Für
                  die Wissenschaftlichkeit gilt aber auch hier, dass eine Sonifikation aus den Daten
                  algorithmisch reproduzierbar sein sollte. Die zugrundeliegenden Daten dürften also
                  nicht um der Ästhetik willen verändert werden. Die Verbindung von informativen und
                  gestalterischen Elementen kann man suggestiv nennen, dennoch ist sie – wie auch im
                  Bereich der Visualisierungen – nicht vermeidbar. <quote>In the current fascination with
                     sonification, the fact that aesthetic decisions must be made in order to translate
                     data into the auditory domain can be obscured</quote>, schreibt die Komponistin Margaret
                  Anne Schedel.<note type="footnote"> <ref type="bibliography" target="#schedel_sounds_2014">Schedel 2014</ref>.</note> Sonifikationen bringen einen
                  Spielraum für Gestaltung mit sich, der aktiv ausgenutzt sein will. Wenn dies das
                  Interesse des Nutzers anregt, ist dies im Sinne der Wissenschaft, solange es nicht
                  auf Kosten der Transparenz geht.</p>
            </div>
         </div>         
         <div type="chapter">
            <head>3. Sonifikation in der Praxis</head>          
            <div type="subchapter">
               <head>3.1 Data-Sound-Mapping: Zeitachse und Datenpunkte</head>               
               <p>Wie könnte die Übertragung von Information in Klang in der Praxis funktionieren?
                  Übertragungen von Schriftzeichen durch Geräusche sind z. B. aus dem Morsecode
                  bekannt. In guter Erinnerung dürfte außerdem noch das akustische Einwahlsignal eines
                  Modems sein. Diese Klänge sind nicht bewusst ästhetisch gestaltet. Um einen (John
                  Cage zugeschriebenen) Satz zur Offenheit des Musikbegriffs zu zitieren: <quote>You don’t
                     need to call it music, if the term shocks you</quote>.<note type="footnote">vgl. <ref type="bibliography" target="#cage_cover_1982">Cage 1982</ref>, Rückseite des Covers.</note> Klang und Information verhalten sich in einer Sonifikation zwar
                  ähnlich wie Musik und Notation zueinander, aber abstrakter: Klang ist darin eine
                  Darstellungsform von Information, die nach vorher bestimmten Regeln chiffriert
                  ist.</p>
               <p>Grundsätzlich ist in einer Sonifikation ein Datenstrom auf einer Zeitachse anzuordnen
                  und die Daten sind nach einem Übertragungssystem in Klänge umzuwandeln. Im
                  einfachsten Fall wird jeder Datenpunkt, unabhängig von seiner Qualität, als ein
                  einzelner Laut wiedergegeben. Der Geigerzähler, das klassische Instrument zur Messung
                  der unsichtbaren Radioaktivität, macht sich dieses Prinzip zunutze, indem
                  eintreffende Strahlung auf physikalischem Weg in einen Knacklaut übertragen wird. Je
                  dichter die Lautfolge, umso höher die Radioaktivität (im Extremfall entsteht ein fast
                  durchgehender Ton). Die Verdichtung kann das Gehör analysieren und so die
                  Geschwindigkeit der Annäherung an eine Strahlungsquelle abschätzen.</p>
               <p>Auf dem Geigerzähler-Prinzip basiert beispielsweise eine Sonifikation, die als
                  zusätzliches Instrument zur Analyse von Sonnenwinden eingesetzt wurde.<note type="footnote">Vgl. <ref type="bibliography" target="#alexander_storm_2012a">Alexander 2012</ref>, passim; 
                     <ref type="bibliography" target="#space_storm_2012">Space.com Staff 2012</ref>, passim.</note> Die
                  Messdaten wurden in einem Zeitraum von mehreren Tagen erfasst und werden in ihrer
                  sonifizierten Form innerhalb kurzer Zeit abgespielt. Die dabei hörbaren Strukturen
                  führten zu neuen Erkenntnissen über die Plasma- und Partikelstruktur der Sonnenwinde
                  und trugen zu einer Optimierung der Beobachtungsmethode bei.<note type="footnote"><quote>[…] a particular ratio of carbon atoms that scientists had not previously
                     detected can reveal more about the source of the solar wind than the ratios of
                     elements they currently monitor</quote>. <ref type="bibliography" target="#space_storm_2012">Space.com Staff 2012</ref>, passim.</note> Das ausschlaggebende
                  Phänomen war bei der Anwendung herkömmlicher Analysemethoden schlicht nicht
                  aufgefallen.</p>
            </div>
            <div type="subchapter">
               <head>3.2 Parametrisierung</head>               
               <p>Datenpunkte können klanglich unterschiedlich gestaltet werden, um einen oder mehrere
                  qualitative Parameter abzubilden. Als Einsteigermethode empfiehlt sich beispielsweise
                  das <quote>Pitch Coding</quote>, bei dem Codepoints und Tonhöhen (pitch) einander zugeordnet
                  werden. Dies lehnt sich an die Konvention der Musiknotation an: Hohe Werte werden als
                  hohe Töne übertragen, niedrige Werte als tiefe Töne. Aufgrund dieser Analogie ist
                  dieses Zuordnungssystem für viele Hörer sofort begreifbar.</p>
               <p>Tonhöhe ist aber nur einer von vielen möglichen Parametern, mithilfe derer eine
                  Sonifikation realisierbar ist. Viele Sonifikationen nutzen Lautstärke, Dauer,
                  Anschlagsgeräusch und Klangqualität simultan. Die bereits erwähnte Sonifikation <ref target="http://listen.hatnote.com/">Listen to Wikipedia</ref>
                  von Stephen LaPorte und Mahmoud Hashemi ist dafür ein gutes Beispiel.<note type="footnote"> <ref type="bibliography" target="#laporte_wikipedia_2013">LaPorte / Hashemi 2013</ref>.</note> Sie bildet die Dynamik zwischen <hi rend="italic">Wikipedia</hi> und ihren Nutzern in Echtzeit ab: Jede Bearbeitung
                  eines Artikels wird als ein Ton abgespielt (Celesta, ähnlich einer Klangröhre). Die
                  Tonhöhe zeigt den Umfang der Bearbeitung an. Ein weicherer Sound
                  (Synthesizer-Streicher) signalisiert die Anmeldung eines neuen Nutzers. Die
                  Ereignisse können nach Sprachen und Ereignistypen gefiltert werden. Der Hörer erhält
                  einen realen Eindruck von der Aktivität auf der Seite. Es sind dieselben
                  Informationen wie in einer Liste oder in einer Visualisierung. Durch die hörbare
                  Frequenz fallen vor allem die starken Unterschiede zwischen den Ländern auf.</p>
               <p>Eine Sonifikation kann zudem mehrere Prozesse gleichzeitig abbilden. Eindrucksvoll
                  ist in dieser Hinsicht die Sonifikation <ref target="http://ensia.com/videos/what-climate-change-sounds-like-from-the-amazon-to-the-arctic/">What climate change
                     sounds like from the Amazon to the Arctic</ref> von Todd Reubold.<note type="footnote"> <ref type="bibliography" target="#reubold_climate_2015">Reubold 2015</ref>.</note> Darin wurden Veränderungen der
                  Durchschnittstemperatur im Verlauf von 100 Jahren auf vier unterschiedlichen
                  Kontinenten gleichzeitig sonifiziert. Die Tonhöhe verläuft dabei proportional zur
                  Durchschnittstemperatur. Der Veränderungsprozess ist in der Sonifikation fast schon
                  überdeutlich hörbar. Die Live-Umsetzung im Video mit einem professionellen
                  Streichquartett ist als Kür anzusehen, denn zuerst erfolgte eine computergestützte
                  Sonifikation: Die Daten mussten zunächst entsprechend der Höchst- und Tiefstwerte auf
                  die hörbaren Frequenzen skaliert werden. Auf dieser Grundlage konnte dann eine
                  Partitur erstellt werden. Nach einem ähnlichen Prinzip sonifizierte Lauren Oakes die
                  Veränderungen in der Verbreitung verschiedener Baumsorten in Nordamerika.<note type="footnote">Vgl. <ref type="bibliography" target="#nijhuis_sound_2016">Nijhuis 2016</ref>, passim.</note> Die Erfahrbarkeit von zeitlichen
                  Prozessen in komprimierter Form stellt sich als eine besondere Stärke von
                  Sonifikation heraus.</p>
               <p>Die Komplexität von Sonifikationen lässt sich beliebig erweitern, etwa in Richtung
                  von Soundalgorithmen, die auf Veränderungen des Datenstromes mit einem Wechsel des
                  Tempos oder der Harmonie reagieren, wie beispielsweise in dem interaktiven Composer
                  <ref target="https://hdl.handle.net/2292/56125">Robin</ref><note type="footnote">Vgl. 
                     <ref type="bibliography" target="#morreale_robin_2013">Morreale et al. 2013</ref>, passim.</note>
                  oder Philart Jeons <ref target="http://www.mtu.edu/unscripted/stories/2016/march/where-science-art-meet-mind-music-machine.html">Mind Music Machine</ref>.<note type="footnote">Vgl. <ref type="bibliography" target="#mills_science_2016">Mills 2016</ref>,
                     passim.</note> Die hörenden Nutzer sollten stets die Möglichkeit haben, das
                  Mapping bzw. den Sonifikationsalgorithmus nachvollziehen zu können. Für eine
                  Höranalyse ist dies allerdings nicht erforderlich, da Auffälligkeiten prinzipiell
                  auch von ungeschulten Hörern erkannt werden können.</p>
            </div>
            <div type="subchapter">
               <head>3.3 Ästhetisierung</head>               
               <p>In welchem Maße der ästhetische Gestaltungsspielraum bereits bei einer einfachen
                  Parametrisierung ausgeschöpft werden kann, demonstriert zum Beispiel eine
                  Sonifikation des Higgs-Bosons,<note type="footnote">Das Higgs-Boson ist ein
                     Elementarteilchen aus dem Standardmodell der Elementarteilchenphysik. Es zerfällt
                     nach sehr kurzer Zeit und ist durch Messung nur schwer nachweisbar.</note> die von
                  Domenico Vicinanza aus Daten des CERN-Partikelbeschleunigers erzeugt wurde.
                  Physikalische Messwerte wurden dort auf eine Tonskala projiziert und zu einer
                  Partitur verarbeitet. Die Anomalie im Datenstrom, die zu der Entdeckung des
                  Higgs-Bosons führte, ist als hohe, kurze Tonfolge hörbar. Zur Musikalisierung wurde
                  ein Habanera-Rhythmus unterlegt. So erstaunlich dies klingen mag: Sonifikationen
                  entfalten auch in musikalisierter Form ihre Wirkung. Aus dem Bericht der
                  Trägerinstitution GÉANT geht hervor, dass bewusst mit vorhandenen Resultaten
                  experimentiert wird: <quote>researchers have created melodies that make the results easier
                     to understand</quote>.<note type="footnote"> <ref type="bibliography" target="#geant_sonification_2012">Géant 2012</ref>.</note> Die Kulturjournalistin Megan
                  Garber versteht dies als <quote>creative extension of existing data</quote>.<note type="footnote"> <ref type="bibliography" target="#garber_boson_2012">Garber 2012</ref>.</note> In diesem Sinne ist vielleicht die <ref target="https://web.archive.org/web/20200126220045/http://cylindricalonion.web.cern.ch/blog/201504/what-would-higgs-discovery-sound-heavy-metal-song">Higgs Boson Sonification</ref> von Pjotr Traczyk<note type="footnote">Vgl. <ref type="bibliography" target="#rao_discovery_2015">Rao 2015</ref>.</note> zu verstehen, in der dieselben Daten in Form
                  eines Heavy-Metal-Riffs präsentiert werden.<note type="footnote">Aus Messdaten des
                     CERN entstand außerdem eine Komposition mit dem Titel <hi rend="italic">Sonification Studies</hi> von Reginald Bain, vgl. <ref type="bibliography" target="#bain_arts_2013">Bain 2013</ref>, passim.</note>
               </p>
               <p>Ein weiteres Beispiel dafür, dass das Erfahrbarmachen eine besondere Qualität von
                  Sonifikationen ist, liefert die <ref target="https://soundstudiesblog.com/2013/04/22/the-noises-of-finance/">Flashcrash Sonification</ref>, die sich mit dem Börsencrash vom 6. Mai
                  2010 befasst (Flash Crash). <quote>[It] suggests rather than indicates; listening to it
                     cannot provide us with rational information regarding the dynamics of the Flash
                     Crash. Instead it produces a dark foreboding of the mechanisms at work, the
                     high-frequency pulses first recalling heartbeats that soon speed up beyond any
                     ability for distinction.</quote><note type="footnote"> <ref type="bibliography" target="#knouf_noises_2013">Knouf 2013</ref>.</note> Ähnlich
                  funktioniert die Sonifikation <ref target="https://datadrivendj.com/tracks/louisiana">Too Blue</ref> von Brian Foo (2015), die auf Daten des durch Klimawandel
                  und Baumaßnahmen verursachten Landverlustes in Louisiana beruht.<note type="footnote">Vgl. <ref type="bibliography" target="#foo_blue_2015">Foo 2015</ref>; vgl. auch <ref type="bibliography" target="#misra_tribute_2015">Misra 2015</ref>.</note>
               </p>
               <p>Auch das letzte Beispiel demonstriert, wie sich die Wirkung von Sonifikationen durch
                  die gezielte Selektion der Parameter dramatisieren lässt. Die Sonifikation <ref target="http://www.bbc.co.uk/programmes/p040tngz">The sound of a falling
                     currency</ref> verbindet den Wechselkurs des
                  Britischen Pfunds im Vergleich zum US-Dollar um den Tag des Brexit-Votums am 23. Juni
                  2016.<note type="footnote">Vgl. <ref type="bibliography" target="#razzell_sound_2016">Razzell 2016</ref>.</note> Der Tagesstand (vom 17. Juni
                  bis zum 6. Juli) wird jeweils mit einem Glockenton wiedergegeben; hier werden
                  Assoziationen zum Big Ben geweckt. Dem Anfangswert von 1,436 USD/GBP ist ein Ton in
                  mittlerer Lage zugeordnet, dem letzten von 1,289 USD/GBP ein sehr tiefer, kaum noch
                  hörbarer Ton. Der plötzliche Verfall des Wechselkurses vom 23. zum 24. Juni wird
                  durch ein Glissando (einer stufenlosen Veränderung der Tonhöhe) repräsentiert. Die
                  Sonifikation wird von einer Kommentarspur begleitet: In der ersten Hälfte wird die
                  Methode erläutert, während in der zweiten Hälfte Kommentare von Politikern zum
                  Brexit-Votum unterlegt wurden. Die in die Tiefe fallenden Töne, durch den
                  Datenausschnitt und die Skalierung übertrieben wirkend, erzeugen ein
                  Untergangsszenario. Hier steht die politische, emotional vermittelte Botschaft
                  gegenüber den konkreten Daten klar im Vordergrund.</p></div>
            <div type="subchapter">
               <head>3.4 Try it at home!</head>               
               <p>Ein Projekt der digitalen Geisteswissenschaften, das erstmals eine Sonifikation
                  entwickeln möchte, muss nicht bei Null anfangen. Die bisherigen
                  Erfahrungen mit Sonifikation wurden systematisch ausgewertet und in
                  diversen Handbüchern zusammengefasst.<note type="footnote">Z. B. <ref type="bibliography" target="#hermann_sonificationhandbook_2011">Hermann et al.
                        2011</ref>; neueren Datums sind <ref type="bibliography" target="#bijsterveld_sonicskills_2019">Bijsterveld 2019</ref>
                     sowie <ref type="bibliography" target="#worrall_sonificationdesign_2019">Worrall 2019</ref>.</note> Derzeit mangelt es in den
                  digitalen Geisteswissenschaften oft an Expertise in Sound-Programmierung. Sofern man nicht über die Möglichkeit
                  verfügt, Spezialisten hinzuzuziehen oder Zeit in das Erlernen von
                  Sound-Programmierung zu investieren, kann man aber auf bestehende
                  Software zurückgreifen. Frei verfügbar sind beispielsweise die Programme
                  <ref target="http://sonify.psych.gatech.edu/research/sonification_sandbox/">Sonification Sandbox</ref>, <ref target="http://www.sonifyer.org/">Sonifyer</ref>,
                  <ref target="https://sourceforge.net/projects/xsonify/">xSonify</ref> und zuletzt auch das browserbasierte <ref
                     target="https://sonification.highcharts.com/#/app">Highcharts
                     Sonification Studio</ref>.<note type="footnote">Vgl. <ref type="bibliography" target="#walker_sonifikation_2009">Walker: Sonification Sandbox 2009</ref>; <ref
                              type="bibliography" target="#hdkbern_sonifyer_2013">Hochschule
                              der Künste Bern: Sonifyer 2013</ref>; <ref type="bibliography"
                                 target="#candey_xsonify_2014">Candey / Schertenleib: xSonify
                                 2014</ref>; <ref type="bibliography" target="#highsoft_highcharts_2025">Highsoft AS: Highcharts
                                    Sonification Studio 2025</ref>.</note> Diese ermöglichen die
                  Erstellung von Sonifikationen mithilfe einer Wertetabelle, sind sowohl
                  über die Kommandozeile als auch über eine GUI steuerbar und erfordern
                  keinen Programmieraufwand. Für eigene XML-basierte Ansätze empfiehlt
                  sich ggf. ein Blick in die Definition des <ref
                     target="http://www.musicxml.com/tutorial/the-midi-compatible-part/"
                     >MIDI-kompatiblen Teils von MusicXML</ref>. Die Einführung von Shawn
                  Graham auf <ref target="https://programminghistorian.org/">The
                     Programming Historian</ref> ist bei der Implementierung
                  behilflich.<note type="footnote">
                     <ref type="bibliography" target="#graham_sound_2016">Graham
                        2016</ref>,
                     passim.</note> Weitere Packages, die Programmierkenntnisse voraussetzen, jedoch einen
                  leichten Einstieg ermöglichen, wurden unlängst mit WebAudioXML,
                  Sonecules und Strauss (Sonification Tools and Resources for Analysis
                  Using Sound Synthesis) vorgelegt.<note type="footnote">Vgl.
                     <ref type="bibliography" target="#lindetorp_webaudioxml_2021">Lindetorp / Falkenberg
                        2021</ref>, <ref type="bibliography" target="#reinsch_sonecules_2023">Reinsch / Hermann 2023</ref> sowie <ref type="bibliography" target="#trayford_strauss_2023">Trayford / Harrison 2023</ref>.</note></p>
            </div>
         </div>
         
         <div type="chapter">
            <head>4. Fazit</head>            
            <p>Die digitalen Geisteswissenschaften laufen derzeit als unbegleiteter Stummfilm.
               Ausgerechnet in diesem Bereich, wo Kreativität von hoher Bedeutung ist, liegt das
               Potenzial der Sonifikation bis jetzt brach. Dass es darauf ankommt, Sonifikationen
               auszuprobieren und vorzuführen, verdeutlichte bereits der <hi rend="italic">Sonification Report</hi> von 2010:</p>
            <p><quote type="grosszitat">People spend up on stereo graphics supercomputers and CAVEs and yet say ›sound won’t
               add anything.‹ The only convincing argument is a working sonification. I’ve found
               that once they have experienced it, there is an almost immediate mindshift, and
               sonification becomes a natural part of the interface (just like the switch from
               silent movies).</quote><note type="footnote"> <ref type="bibliography" target="#kramer_sonification_2010">Kramer et al. 2010</ref>, S. 18.</note>
            </p>
            <p>Es besteht das Desiderat, Sonifikation als ein in medizinischen
               und naturwissenschaftlichen Kontexten bereits bewährtes
               Verfahren nun auch in den digitalen Geisteswissenschaften zu erproben.
               Sonifikation bietet vielversprechende Möglichkeiten: Allein die Vielzahl und
               Dichte an Parametern, die durch Sonifikation abbildbar und erfahrbar werden,
               sprechen stark für Experimente in dieser Richtung. Konkret stellen
               Sonifikationen eine ideale Ergänzung zu Visualisierungen dar und könnten so
               in die nächste Entwicklungsstufe von Interfaces einfließen. Sie erweitern
               zudem die Analysemöglichkeiten um die Wahrnehmungsqualitäten des Gehörs. Zu
               guter Letzt können sie zur medialen Wissenschaftsvermittlung beitragen.</p>
            <p>Ein möglicher Weg dorthin bestünde darin, sich mit
               existierenden Sonifikationen aus anderen Fachbereichen auseinanderzusetzen
               und anschließend Ansätze für das eigene Datenmaterial zu entwickeln. Um
               diese neue Dimension mutig zu erkunden, könnte die dahinter stehende
               Motivation darin liegen, den digitalen Geisteswissenschaften endlich einen
               angemessenen Soundtrack zu verleihen.</p>
         </div>
      </body>
      <back>
         <div type="bibliography">
            <head>Bibliographische Angaben</head>
            <listBibl>
               <bibl xml:id="alexander_storm_2012a">Robert Alexander (2012): How A Solar
                  Storm Sounds – Particle Sonification Video. In: YouTube. Beitrag vom
                  14.03.2012. MP4. [<ref
                     target="https://www.youtube.com/watch?v=TGlIddR5-88"
                     >online</ref>]</bibl>
               <bibl xml:id="bain_arts_2013">Reginald Bain: Creative and Performing Arts
                  Grant Report. 2013. PDF. [<ref
                     target="http://studylib.net/doc/14385351/">online</ref>] </bibl>
               <bibl xml:id="barrass_sonification_2011">Stephen Barrass / Paul Vickers:
                  Sonification and Design Aesthetics. In: The Sonification Handbook. Hg.
                  von Thomas Hermann / Andy Hunt / John G. Neuhoff. Berlin 2011, S.
                  145–171. URN: <ref
                     target="http://nbn-resolving.de/urn:nbn:de:0070-pub-24423492"
                     >urn:nbn:de:0070-pub-24423492</ref>
                  <ptr type="gbv" cRef="682833886"/>
               </bibl>               
               <bibl xml:id="bijsterveld_sonicskills_2019">Karin Bijsterveld: Sonic Skills. Listening for Knowledge in Science,
                  Medicine and Engineering (1920s–Present). London 2019. DOI: <ref
                     target="https://doi.org/10.1057/978-1-137-59829-5">10.1057/978-1-137-59829-5</ref>
               </bibl>               
               <bibl xml:id="cage_cover_1982">John Cage. Rückseite des Covers. In: Various
                  Artists: An Afflicted Man’s Musica Box. Vinyl. United Dairies (UK) 1982.
                  [<ref
                     target="https://brainwashed.com/nww/images/back/ud012-2-back.jpg"
                     >online</ref>] </bibl>
               <bibl xml:id="CodingdaVinci_sound_2016"> Coding da Vinci. Projekte 2016. SOS
                  – Sound of Sails. Hg. von Wikimedia Deutschland e.V. 2016. [<ref
                     target="https://codingdavinci.de/projects/2016/sound_of_sails.html"
                     >online</ref>]</bibl>
               <bibl xml:id="dombois_audification_2011">Florian Dombois / Gerhard Eckel:
                  Audification. In: The Sonification Handbook. Hg. von Thomas Hermann /
                  Andy Hunt / John G. Neuhoff. Berlin 2011, S. 301–324. URN: <ref
                     target="http://nbn-resolving.de/urn:nbn:de:0070-pub-24423492">urn:nbn:de:0070-pub-24423492</ref>
               </bibl>
               <bibl xml:id="doerk_information_2011">Marian Dörk / Sheelagh Carpendale /
                  Carey Williamson: The Information Flaneur: A Fresh Look at Information
                  Seeking. In: CHI 2011 conference proceedings and extended abstracts. Hg.
                  von Association for Computing Machinery; SIGCHI. (CHI: 29, Vancouver,
                  BC., 07.-12.05.2011) New York, NY. 2011, S. 1215-1224. <ptr type="gbv"
                     cRef="663506891"/></bibl>
               <bibl xml:id="economist_this_2016">Now hear this. Hg. von The Economist. In:
                  The Economist. Beitrag vom 19.03.2016. [<ref
                     target="https://www.economist.com/news/science-and-technology/21694992-scientific-data-might-be-filled-important-things-waiting-be-discovered"
                     >online</ref>]</bibl>
               <bibl xml:id="emsley_sonification_2016">Iain Emsley: »O where is Romeo, saw
                  you him to day?«: Using sonification and visualization in the
                  exploration of Early Modern English literature metadata. In: Digital Humanities at Oxford Summer School.
                  Scholarship, Application, Community. (DHO SS 2016, Oxford,
                  04.-08.07.2016) [<ref
                     target="https://ora.ox.ac.uk/objects/uuid:f49dbb56-1078-47e8-a421-86606d5c7a47"
                     >online</ref>]</bibl>
               <bibl xml:id="emsley_discourse_2016">Iain Emsley / David De Roure: »It will
                  discourse most eloquent music«: Sonifying Variants of Hamlet. DOI: <ref
                     target="https://doi.org/10.4000/jtei.1535">10.4000/jtei.1535</ref>
                  In: Journal of the Text Encoding Initiative 10 (2016). [<ref
                     target="https://journals.openedition.org/jtei/1511">online</ref>] </bibl>
               <bibl xml:id="flowers_years_2005">John H. Flowers: Thirteen years of
                  reflection on auditory graphing: Promises, pitfalls, and potential new
                  directions. In: ICAD 2005. 11th International Conference on
                  Auditory Display. Proceedings (ICAD, Limerick, 06.-09.07.2005)
                  Limerick 2005, S. 406–409. Handle: <ref target="http://hdl.handle.net/1853/50188">1853/50188</ref>
               </bibl>
               <bibl xml:id="foo_blue_2015">Brian Foo: Too Blue. Mapping Coastal
                  Louisiana's Land Loss with Music. In: Data Driven DJ. Beitrag 2015.
                  HTML/MP3/MP4. [<ref target="https://datadrivendj.com/tracks/louisiana"
                     >online</ref>] </bibl>
               <bibl xml:id="frazier_sonification_2013">Sarah Frazier: Sonification: Data
                  like you’ve never heard before. In: EarthZine. Beitrag vom 23. Juli
                  2013. HTML/MP4. [<ref
                     target="https://earthzine.org/sonification-data-like-youve-never-heard-before-3/">online</ref>]</bibl>
               <bibl xml:id="garber_boson_2012">Megan Garber: Here's What the Higgs Boson
                  Sounds Like. In: The Atlantic. Beitrag vom 10.07.2012. HTML/MP3. [<ref
                     target="https://www.theatlantic.com/technology/archive/2012/07/heres-what-the-higgs-boson-sounds-like/259652/"
                     >online</ref>]</bibl>
               <bibl xml:id="geant_sonification_2012">Sonification enables world to hear
                  new Higgs Boson-like particle. Hg. von GÉANT.
                  In: Media Centre. GÉANT. Beitrag vom 10.07.2012. [<ref
                     target="https://web.archive.org/web/20210125133149/https://geant3.archive.geant.org/Media_Centre/Pages/Higgs-like-Boson-Sonification.aspx">online</ref>]</bibl>
               <bibl xml:id="graham_sound_2016">Shawn Graham: The Sound of Data. A gentle
                  introduction to sonification for historians. In: The Programming
                  Historian. Beitrag vom 07.07.2016. [<ref
                     target="https://programminghistorian.org/lessons/sonification"
                     >online</ref>] </bibl>
               <bibl xml:id="grond_sonifikation_2009">Florian Grond / Theresa
                  Schubert-Minski: Sonifikation. In: See this sound. Beitrag von 2009.
                  [<ref
                     target="http://www.see-this-sound.at/kompendium/abstract/70.html"
                     >online</ref>]</bibl>
               <bibl xml:id="hermann_taxonomy_2008">Thomas Hermann: Taxonomy and
                  Definitions for Sonification and Auditory Display. In:
                  Proceedings of the International Conference on Auditory Display 2008
                  (ICAD 14, Paris, 24.-27.06.2008). Paris 2008. Handle: <ref
                     target="http://hdl.handle.net/1853/49960">1853/49960</ref>
               </bibl>               
               <bibl xml:id="hermann_sonification_2011">Thomas Hermann: Model-Based
                  Sonification. In: The Sonification Handbook. Hg. von Thomas Hermann /
                  Andy Hunt / John G. Neuhoff. Berlin 2011, S. 399–427. URN: <ref
                     target="https://nbn-resolving.org/urn:nbn:de:0070-pub-24423492"
                     >urn:nbn:de:0070-pub-24423492</ref>
               </bibl>
               <bibl xml:id="hermann_sonificationhandbook_2011">The Sonification Handbook.
                  Hg. von Thomas Hermann / Andy Hunt / John G. Neuhoff. Berlin 2011. URN:
                  <ref target="https://nbn-resolving.org/urn:nbn:de:0070-pub-24423492"
                     >urn:nbn:de:0070-pub-24423492</ref></bibl>
               <bibl xml:id="highsoft_highcharts_2025">Highsoft AS / Georgia Institute of Technology: Highcharts Sonification
                  Studio. 2025. [<ref
                     target="https://sonification.highcharts.com/#/app">online</ref>]</bibl>
               <bibl xml:id="kaufman_space_2017">Micki Kaufman: »We Have This Space
                  Problem:« Big Data, Multi-Dimensionality and the Kissinger
                  Correspondence. PDF. [<ref
                     target="https://dh2017.adho.org/abstracts/420/420.pdf">online</ref>]
                  In: Digital Humanities 2017 Conference Abstracts. Hg. von Rhian Lewis /
                  Cecily Raynor / Dominic Forest / Michael Sinatra / Stéfan Sinclair. (DH
                  2017, Montreal, 08.-11.08.2017) Montreal 2017. PDF. [<ref
                     target="https://dh2017.adho.org/abstracts/DH2017-abstracts.pdf"
                     >online</ref>]</bibl>
               <bibl xml:id="knouf_noises_2013">Nicholas Knouf: The Noises of Finance. In:
                  Sounding Out! Blogbeitrag vom 22.04.2013. HTML/MP4. [<ref
                     target="https://soundstudiesblog.com/2013/04/22/the-noises-of-finance/"
                     >online</ref>]</bibl>
               <bibl xml:id="kramer_sonification_2010">Gregory Kramer / Bruce Walker /
                  Terri Bonebright / Perry Cook / John H. Flowers / Nadine Miner / John
                  Neuhoff: Sonification Report: Status of the Field and Research Agenda.
                  In: Faculty Publications. Hg. von University of Nebraska, Department of
                  Psychology. Lincoln, NE. 2010. [<ref
                     target="http://digitalcommons.unl.edu/psychfacpub/444"
                     >online</ref>]</bibl>
               <bibl xml:id="laporte_wikipedia_2013">Stephen LaPorte / Mahmoud Hashemi:
                  Listen to Wikipedia. 2013. [<ref target="http://listen.hatnote.com/"
                     >online</ref>]</bibl>
               <bibl xml:id="leibniz_brief_1712">Gottfried Wilhelm Leibniz an Christian
                  Goldbach. Brief vom 17. April 1712. In: Viri illustris Godefridi Guil.
                  Leibnitii epistolae ad diversos. Hg. von Christian Kortholt. 5 Bde.
                  Leipzig 1734, Bd. 1, S. 239-242. <ptr type="gbv" cRef="143497847"/></bibl>               
               <bibl xml:id="lindetorp_webaudioxml_2021">Hans Lindetorp / Kjetil
                  Falkenberg: Sonification for Everyone Everywhere – Evaluating the
                  WebAudioXML Sonification Toolkit for Browsers. In: Sounding Board: Proceedings of the 26th Annual International Conference on Auditory Display. Hg. von Areti Andreopoulou / Milena Droumeva / Joseph W. Newbold / Kyla McMullen / Paul Vickers. (ICAD, online, 25.–28.06.2021) Atlanta 2021. Handle: <ref
                     target="http://hdl.handle.net/1853/66351">1853/66351</ref></bibl>
               <bibl xml:id="lupi_data_2015">Giorgia Lupi / Stefanie Posavec: Dear Data.
                  The Project. 2015. [<ref target="http://www.dear-data.com/theproject"
                     >online</ref>]</bibl>
               <bibl xml:id="madhyastha_data_1995">Tara Maja Madhyastha / Daniel Alden
                  Reed: Data Sonification: Do You See What I Hear? In: IEEE Software 12
                  (1995), H. 2, S. 45–56. <ptr type="gbv" cRef="130401587"/></bibl>
               <bibl xml:id="mills_science_2016">Allison Mills: Where Science and Art Meet:
                  The Mind Music Machine. In: MichiganTech. Beitrag vom 25.03.2016.
                  HTML/MP3/MP4. [<ref
                     target="http://www.mtu.edu/unscripted/stories/2016/march/where-science-art-meet-mind-music-machine.html"
                     >online</ref>]</bibl>
               <bibl xml:id="misra_tribute_2015">Tanvi Misra: A Musical Tribute to
                  Louisiana’s Lost Coast. In: CityLab. Beitrag vom 28.08.2015. HTML/MP4.
                  [<ref
                     target="https://www.citylab.com/environment/2015/08/a-musical-tribute-to-louisianas-lost-coast/402721/"
                     >online</ref>]</bibl>
               <bibl xml:id="morreale_robin_2013">Fabio Morreale / Raul Masu / Antonella De
                  Angeli: Robin: An algorithmic Composer for Interactive Scenarios. PDF. Handle: <ref target="https://hdl.handle.net/2292/56125">2292/56125</ref>. In: Proceedings of SMC 2013. 10th Sound and Music
                  Computing Conference. Hg. von Roberto Bresin. (SMC: 10, Stockholm,
                  03.07.-02.08.2013) Berlin 2013, S. 207–212. PDF. [<ref
                     target="http://www.speech.kth.se/smac-smc-2013/proceedings/SMAC2013_Proceedings_online-version_updated-20141031.pdf"
                     >online</ref>] <ptr type="gbv" cRef="769628893"/></bibl>
               <bibl xml:id="nijhuis_sound_2016">Michelle Nijhuis: The Sound of Climate
                  Change. A musician translated the changing ecology of a forest into
                  song. In: The Atlantic. Beitrag vom 14.09.2016. HTML/Audio. [<ref
                     target="http://www.theatlantic.com/science/archive/2016/09/this-is-the-sound-of-a-forest-changing/499802/"
                     >online</ref>]</bibl>
               <bibl xml:id="rao_discovery_2015">Achintya Rao: What would the Higgs
                  discovery sound like as a heavy-metal song? In: The Cylindrical Onion.
                  Blogging about the CMS Experiment. Blogbeitrag vom 13.04.2015. HTML/MP4.
                  [<ref
                     target="https://web.archive.org/web/20200126220045/http://cylindricalonion.web.cern.ch/blog/201504/what-would-higgs-discovery-sound-heavy-metal-song"
                     >online</ref>]</bibl>
               <bibl xml:id="rassler_art_2016">Brad Rassler: The Art of Turning Climate
                  Change Science into Music. In: Outside. Beitrag vom 06.09.2016.
                  HTML/MP3. [<ref
                     target="http://www.outsideonline.com/2109116/art-turning-climate-change-science-music"
                     >online</ref>]</bibl>
               <bibl xml:id="razzell_sound_2016">Neal Razzell: The sound of a falling
                  currency. In: World at One. Hg. von BBC Radio 4. Beitrag vom 08.07.2016.
                  HTML/MP4. [<ref target="http://www.bbc.co.uk/programmes/p040tngz"
                     >online</ref>]</bibl>               
               <bibl xml:id="reinsch_sonecules_2023">Dennis Reinsch / Thomas Hermann:
                  SONECULES: A Python Sonification Architecture. In: Sonification for the Masses: Proceedings of the 28th Annual International Conference on Auditory Display. Hg. von Marian Weger / Tim Ziemer / Niklas Rönnberg. (ICAD, Norrköping, 26.06.–01.07.2023) Atlanta 2023. Handle: <ref target="https://hdl.handle.net/1853/72877">1853/72877</ref></bibl>
               <bibl xml:id="reubold_climate_2015">Todd Reubold: What climate change sounds
                  like from the Amazon to the Arctic. In: Ensia. Hg. von University of
                  Minnesota, MN. Beitrag vom 07.05.2015. HTML/MP4. [<ref
                     target="http://ensia.com/videos/what-climate-change-sounds-like-from-the-amazon-to-the-arctic/"
                     >online</ref>]</bibl>
               <bibl xml:id="trostel_klang_2016"> Coding da Vinci. Projekte 2016. Klang der
                  Sterne. Hg. von Wikimedia Deutschland e.V. 2016. [<ref
                     target="https://codingdavinci.de/projects/2016/klang_der_sterne.html"
                     >online</ref>]</bibl>
               <bibl xml:id="schedel_sounds_2014">Margaret Schedel: Sounds of Science: The
                  Mystique of Sonification. In: Sounding Out! Blogbeitrag vom 09.10.2014.
                  HTML/MP3/MP4. [<ref
                     target="https://soundstudiesblog.com/2014/10/09/sounds-of-science-the-mystique-of-sonification/"
                     >online</ref>]</bibl>
               <bibl xml:id="schmied_ohren_2016">Gerhard Schmied: Wer Ohren hat zu hören.
                  Über eine zentrale Dimension der Welterfassung. <ptr type="gbv"
                     cRef="1011204622"/> In: Alltagsmoralen. Die kulturelle Beeinflussung
                  der fünf Sinne. Hg. von Robert Hettlage / Alfred Bellebaum. Wiesbaden
                  2016, S. 121–143. <ptr type="gbv" cRef="833169459"/>
               </bibl>
               <bibl xml:id="schoon_klaenge_2012">Andi Schoon / Axel Volmar: Informierte
                  Klänge und geschulte Ohren. Zur Kulturgeschichte der Sonifikation. In:
                  Das geschulte Ohr. Eine Kulturgeschichte der Sonifikation. Hg. von Andi
                  Schoon / Axel Volmar. Bielefeld 2012. DOI: 10.1515/transcript.9783839420492.9</bibl>
               <bibl xml:id="space_storm_2012">Solar Storm Soundtrack Recorded in New Sun
                  Video. Hg. von Space.com Staff. In: Space.com. Beitrag vom 20.03.2012.
                  [<ref
                     target="https://www.space.com/14958-solar-storm-sounds-video.html"
                     >online</ref>]</bibl>
               <bibl xml:id="spagnol_sonification_2016">Simone Spagnol / Charalampos Saitis
                  / Michal Bujacz / Omar I. Johannesson / Kyriaki Kalimeri / Alin
                  Moldoveanu / Arni Kristjansson / Runar Unnthorsson: Model-based Obstacle
                  Sonification for the Navigation of Visually Impaired Persons. [<ref
                     target="http://dafx16.vutbr.cz/dafxpapers/43-DAFx-16_paper_25-PN.pdf">online</ref>] In: Proceedings of the 19th International Conference
                  on Digital Audio Effects. Hg. von Brno University of Technology.
                  (DAFx-16, Brno, 05.-09.09.2016) Brno 2016. PDF. [<ref
                     target="http://dafx16.vutbr.cz/files/DAFx16_proceedings.pdf"
                     >online</ref>]</bibl>
               <bibl xml:id="spinola_arbeitsweise_1988">Roland Spinola: Arbeitsweise des
                  Gehirns berücksichtigen: Der Nutzen des Herrmann Dominanz Instruments
                  (HDI) bei der Einstellung von Weiterbildnern auf individuelle Lernstile.
                  In: Weiterbildung 1 (1988), H. 4, S. 44–48. <ptr type="gbv"
                     cRef="13045995X"/> Fortsetzung: Jedem der vier Quadranten zur
                  Geltung verhelfen. In: Weiterbildung 2 (1989), H. 3, S. 33–34. <ptr
                     type="gbv" cRef="13045995X"/></bibl>
               <bibl xml:id="supper_search_2012">Alexandra Supper: The Search for the
                  »Killer Application«: Drawing the Boundaries around the Sonification of
                  Scientific Data. <ptr type="gbv" cRef="796721459"/> In: The Oxford
                  Handbook of Sound Studies. Hg. von Trevor Pinch / Karin Bijsterveld.
                  Oxford 2012. S. 249–272. <ptr type="gbv" cRef="641253311"/>
               </bibl>              
               <bibl xml:id="trayford_strauss_2023">James W. Trayford / Chris M. Harrison: Introducing strauss: A Flexible Sonification Python Package. In: Sonification for the Masses: Proceedings of the 28th Annual International Conference on Auditory Display. Hg. von Marian Weger / Tim Ziemer / Niklas Rönnberg. (ICAD, Norrköping, 26.06.–01.07.2023) Atlanta 2023. Handle: <ref target="https://hdl.handle.net/1853/73935">1853/73935</ref></bibl>
               <bibl xml:id="wardle_time_1998">David A. Wardle: The Time Delay in Human
                  Vision. In: The Physics Teacher 36 (1998), H. 7, S. 442–444. <ptr
                     type="gbv" cRef="129940178"/>
               </bibl>
               <bibl xml:id="woertwein-image_2016">Torsten Wörtwein / Boris Schauerte /
                  Karin Müller / Rainer Stiefelhagen: Mobile Interactive Image
                  Sonification for the Blind. In: Computers Helping People with Special
                  Needs ICCHP 2016. Hg. von Klaus Miesenberger / Christian Bühler / Petr
                  Penaz. 2. Bände. (ICCHP: 15, Linz, 13.-15.07.2016) Cham u.a. 2016. Bd.
                  1, S. 212–219. <ptr type="gbv" cRef="86622954X"/>
               </bibl>               
               <bibl xml:id="worrall_sonificationdesign_2019">David Worrall: Sonification
                  Design. From Data to Intelligible Soundfields. Cham 2019. DOI: 10.1007/978-3-030-01497-1</bibl>               
               <bibl xml:id="zhao_isonic_2005">Haixia Zhao / Catherine Plaisant / Ben
                  Shneiderman: iSonic: Interactive Data Sonification for Blind Users.
                  University of Maryland, 2005. MP4. In: Youtube. Beitrag vom 11.09.2013.
                  [<ref target="https://www.youtube.com/watch?v=8hUIAnXtlc4"
                     >online</ref>] </bibl>
            </listBibl>
         </div>
         <div type="bibliography">
            <head>Softwareverzeichnis</head>            
            <listBibl>
               <bibl xml:id="walker_sonifikation_2009">Bruce N. Walker: Sonification Sandbox. Hg. von School of Psychology,
                  Georgia Institute of Technology. Version 6.2beta. Atlanta, GA. 2009. [<ref target="http://sonify.psych.gatech.edu/research/sonification_sandbox/">online</ref>]</bibl>
               
               <bibl xml:id="hdkbern_sonifyer_2013">Sonifyer. Hg. von Hochschule der Künste Bern. Version 1.7.7. Bern 2013. [<ref target="http://www.sonifyer.org/softhardware/sonifyer/">online</ref>]</bibl>
               
               <bibl xml:id="candey_xsonify_2014">Robert M. Candey / Anton M. Schertenleib: xSonify. Hg. von NASA Space Physics Data Facility. Version 1.4. Greenbelt, MD. 2014. 
                  [<ref target="https://sourceforge.net/projects/xsonify/">online</ref>]</bibl>
            </listBibl>             
         </div>
         <div type="bibliography">
            <head>Weiterführende Literatur</head>            
            <listBibl>
               <bibl xml:id="barrass_aesthetic_2012">Stephen Barrass: The aesthetic turn in sonification towards a social and cultural
                  medium. 
                  In: AI &amp; Society 27 (2012), H. 2, S. 177–181. <ptr type="gbv" cRef="129932841"/>
               </bibl>
               <bibl xml:id="delogu_sonification_2006">Franco Delogu / Marta Olivetti Belardinelli / Massimiliano Palmiero / Emanuele Pasqualotto / Haixia Zhao / 
                  Catherine Plaisant / Stefano Federici: Interactive sonification for blind people exploration of
                  geo-referenced data: comparison between a keyboard-exploration and a
                  haptic-exploration interfaces. 
                  In: Cognitive Processing 7 (2006), Supp. 1, S. 178–179. <ptr type="gbv" cRef="326177906"/>
               </bibl>
               <bibl xml:id="jamieson_data_2016">Jack Jamieson: What Does Data Sound Like? 
                  In: OpenShelf. Beitrag vom 01.02.2016.
                  HTML/MP4. [<ref target="http://www.open-shelf.ca/160201-data-sonification/">online</ref>]</bibl>
               <bibl xml:id="legere_information_2016">Katie Legere: There’s Information in Music and Music in Information. 
                  In: OpenShelf. Beitrag vom 01.02.2016. HTML/MP3. [<ref target="http://www.open-shelf.ca/1602-01-information-in-music/">online</ref>]</bibl>
               <bibl xml:id="richardson_engagement_2018">Daniel C. Richardson / Nicole K. Griffin / Lara Zaki / Auburn Stephenson / Jiachen Yan / John Hogan / Jeremy I. Skipper / Joseph T. Devlin: 
                  Measuring narrative engagement: The heart tells the story. 
                  In: BioRxiv. Preprint vom 20.06.2018. DOI: <ref target="https://doi.org/10.1101/351148">10.1101/351148</ref>
               </bibl>
               <bibl xml:id="smith_experiments_1976">C. W. Smith / G. F. Burke / James A. Rooney: Experiments involving sonification of
                  liquid helium at 4.2 K in the cathode-anode interspace of a photodiode tube. 
                  In:
                  Journal of the Acoustical Society of America 60 (1976), H. 2, S. 378–383. <ptr type="gbv" cRef="129550264"/>
               </bibl>
               <bibl xml:id="smith_data_1991">Stuart Smith: Data sonification: issues and challenges. 
                  In: 1991 IEEE ASSP Workshop on Applications of Signal Processing to Audio and Acoustic. 
                  (IEEE 1991, New Paltz, NY., 20.-23.10.1991) New York, NY. 1991. <ptr type="gbv" cRef="128949198"/>
               </bibl>
               <bibl xml:id="sterne_recording_2012">Jonathan Sterne / Mitchell Akiyama: The Recording That Never Wanted to Be Heard
                  and Other Stories of Sonification. <ptr type="gbv" cRef="796725993"/>
                  In: The Oxford Handbook of Sound Studies. Hg. von Trevor Pinch / Karin Bijsterveld. Oxford 2012. S. 544–560. <ptr type="gbv" cRef="641253311"/>
               </bibl>
               <bibl xml:id="worrall_sonification_2015">David Worrall: Realtime Sonification and Visualization of Network Metadata (The
                  NetSon Project). Handle: <ref target="http://hdl.handle.net/1853/54204">1853/542041853/54204</ref>
                  In: ICAD 15 proceedings of the 21st International Conference on Auditory Display (ICAD, Graz, 08.-10.07.2015). Hg. von Katharina Vogt. Graz 2015, S. 337–339. 
                  Handle: <ref target="http://hdl.handle.net/1853/54093">1853/542041853/54204</ref> 
               </bibl>               
            </listBibl>             
         </div>
      </back>
   </text>
</TEI>