Die Frage nach dem Lehren und Lernen im digitalen Raum wurde von der Mediendidaktik in den vergangenen Jahren bereits ausführlich behandelt; digitale Methoden haben sich mittlerweile sowohl in der Forschung als auch im schulischen Umfeld mehr und mehr durchgesetzt.
Am Beispiel von Leonhard Christoph Sturm (1669–1719) stellen die Autoren eine Methodologie vor, um die intellektuellen Netzwerke der Frühaufklärung um 1700 umfassend zu analysieren.
Das Projekt XSample entwickelt eine Lösung für die Nutzung urheberrechtlich geschützter Texte in der DH-Forschung. Der forschungsgesteuerte Ansatz ermöglicht eine Optimierung des maximal erlaubten Auszugsvolumens entlang eigener Forschungsfragen.
Im Mittelpunkt der Ausführungen steht die Betrachtung der Digital Humanities als community-induziertes Phänomen: Welche institutionellen Rahmenbedingungen brauchen die Digital Humanities, um Innovationspotenziale freizusetzen und eine tragende Rolle bezüglich der digitalen Transformation der Geisteswissenschaften einzunehmen?
Im Beitrag wird ein Algorithmus beschrieben, der historische Urbanonyme automatisiert geokodiert und entsprechend ihrer historischen Verwaltungszugehörigkeit clustert.
Eine hypothesengeleitete literaturwissenschaftliche Fallstudie mit der Anwendung von Digital-Humanities-Verfahren. Primärtexte der Analyse sind dreizehn längere Erzähltexte des deutschsprachigen Gegenwartsautors Uwe Timm.
Der Artikel diskutiert kritisch den Begriff der ›Masse‹ unter der Perspektive von Crowdsourcing-Anwendungsfeldern. Es wird, auch unter historischer Rückbindung, ein Überblick zu spezifischen Methoden gegeben, die insbesondere im Feld der Citizen Science und in Projekten der Digital Humanities zum Einsatz kommen.
Der Beitrag entwirft und verfolgt mithilfe des Konzepts digitaler Experimentalsysteme eine epistemologische Perspektive auf digitale Zeitungssammlungen, die die Eigenarten, Effekte und Folgen digitaler Forschungskontexte für die Zeitungsforschung methodologisch hinterfragt.
Die vorliegende Studie präsentiert und erprobt eine Methodik, mit der die Paratexte eines mittelgroßen Textkorpus erfasst und analysiert werden. Zunächst wird eine Einführung in die Erzähltheorie gegeben, dann werden die einzelnen methodischen Schritte zur Erfassung der unterschiedlichen paratextuellen und textuellen Signale ausführlich dargelegt.
Der MUSE Datensatz stellt detaillierte, in eine umfassende Ontologie eingebettete Daten über Filmkostüme zur Verfügung, um Kostüme systematisch beschreibbar und analysierbar zu machen.