Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Sitzungsübersicht
Datum: Montag, 02.03.2020
12:30 - 13:30Mittagsimbiss
 
13:30 - 17:00Workshop 1a
(2x halbtägiger Workshop)
Q 0 101 
 

Bias in Datensätzen und ML-Modellen: Erkennung und Umgang in den DH

David Lassner1, Stephanie Brandl1, Louisa Guy2, Anne Baillot2

1TU Berlin; 2Le Mans Université

Der Workshop besteht aus einem allgemeineren Teil zu Bias im Maschinellen Lernen, in dem grundlegend in die Thematik eingeführt wird, und einem spezifischeren Teil, in dem ML-Biases im Kontext von DH behandelt werden. Beide Teile beinhalten Vortrags- sowie Mitmachsessions. Ziel des Workshops ist es, dass die Teilnehmenden sich des Problems von Bias in Machine Learning Modellen bewusst werden und die grundlegenden Techniken zur Erkennung und zur Unterdrückung von Biases kennenlernen. Es soll außerdem gemeinsam erarbeitet werden, auf welche Weise DH-ForscherInnen mit den Biases produktiv umgehen können. Es wird beispielsweise gezeigt, wie Biases in historischen Textdatensätzen auf Biases in den Gesellschaften ihrer Entstehung sowie in ihrer Aufbewahrungs- und Tradierungsgeschichte hindeuten können. Programm und Material unter bias-ml-dh.davidlassner.com

 
13:30 - 17:00Workshop 2a
(2x halbtägiger Workshop)
Q 1 101 
 

Nachlass Ludwig Wittgenstein: Softwaretechnologien und computerlinguistische Methoden der Software-Infrastruktur um die FinderApp WiTTFind

Maximilian Hadersbeck1, Florian Babl1, Marcel Eisterhues1, Ines Röhrer1, Sebastian Still1, Sabine Ullrich1, Florian Landes3, Matthias Lindinger2

1Ludwig-Maximilians Universität München; 2Bayerische Staatsbilbliothek, München; 3Bayerische Akademie der Wissenschaften, München

Seit 2010 kooperieren das Wittgenstein Archiv der Universität Bergen und das Centrum für Informations- und Sprachverarbeitung der Ludwig-Maximilians Universität München in der Forschungsgruppe "Wittgenstein Advanced Search Group" (WAST). Die Projektgruppe entwickelt die web-basierte FinderApp WiTTFind zusammen mit speziellen Tools die es erlauben computerlinguistisch unterstützt im Nachlass von Ludwig Wittgenstein gesuchte Textpassagen zu finden.

In diesem Workshop werden die eingesetzten Softwaretechnologien und computerlinguistischen Methoden im konkreten Einsatz vorgestellt. Den TeilnehmerInnen wird ein Debian-10 Container mit allen notwendigen Programmen und Tools der gesamten Softwareinfrastruktur zur Verfügung gestellt. Innerhalb dieses Containers können die TeilnehmerInnen die einzelnen Tools der WAST-Projektgruppe kennenlernen, bekommen von den Projektmitarbeitern kleine Aufgaben gestellt, die sie dann mit ihnen bearbeiten. So können sie die Arbeitsweise der WAST Infrastuktur konkret kennenlernen. Es werden u.a. folgende Tools vorgestellt und geübt: Gitlab Projektmanagement, XML TEI-P5 Edition CISWAB, Dokumentstrukturierung und OCR-Erkennung, Lexikalische Arbeit, WEB-Oberfläche und Micorservices, Faksimilereader, mongodb, Semantische Ähnlichkeitssuche, Regelbasierte Suchmaschine . Dokumentationssystem Sphinx.

 
13:30 - 17:00Workshop 4
Q 1 219 
 

Annotieren, Analysieren, Visualisieren – Einführung in CATMA 6

Jan Horstmann, Jan Christoph Meister, Marco Petris, Mareike Schumacher, Marie Flüh

Universität Hamburg, Deutschland

Der ohne technische Vorkenntnisse besuchbare hands-on-Workshop bildet eine Einführung in die Möglichkeiten der für Geisteswissenschaftlerïnnen entwickelten, webbasierten Annotations- und Analyseplattform CATMA 6. Im Zentrum stehen theoretische und praktische Aspekte der digitalen Annotation von (literarischen) Texten sowie die Analyse und Visualisierung dieser Texte und der erstellten Annotationen.

CATMA (Computer Assisted Text Markup and Analysis; https://catma.de) ist ein webbasiertes open-source-Tool, das seit 2008 an der Universität Hamburg entwickelt und derzeit von über 60 Forschungsprojekten und ca. 12.000 Nutzerïnnen weltweit genutzt wird. Die im Zuge des DFG-Projektes forTEXT (https://fortext.net) entwickelte sechste Version bietet neben erweiterten technischen Möglichkeiten (wie beispielsweise der Datenversionierung und der Organisation kollaborativer Arbeit in einer Projektstruktur), ein völlig überarbeitetes, intuitiver nutzbares User Interface, das einen leichten Einstieg in die digitale Textannotation und -analyse ermöglicht, ohne dass umfangreiche technische Kenntnisse vonnöten wären.

 
13:30 - 17:00Workshop 5
Q 2 101 
 

Digital Humanities from Scratch

Torsten Roeder1, Fabian Cremer2,8, Swantje Dogunke3, Frederik Elwert4, Harald Lordick5, Katrin Ott6, Sibylle Söring7, Thorsten Wübbena8

1Leopoldina, Halle (Saale); 2Max Weber Stiftung, Bonn; 3HTWK Leipzig; 4Ruhr-Universität Bochum; 5Steinheim-Institut; 6Universität Erfurt; 7Freie Universität Berlin; 8Leibniz-Institut für Europäische Geschichte, Mainz

Thema des Workshops „Digital Humanities from Scratch“ sind Koordinationsaufgaben im Bereich von DH-Aktivitäten, die an wissenschaftlichen Institutionen aller Größenordnungen stetig intensiver und bedeutender zum Tragen kommen. Der auf 3,5 Stunden angesetzte Workshop ist in zwei Hauptteile gegliedert, um zweierlei Bedürfnisse abzudecken: Erstens Themenkomplexe zu definieren und Fragestellungen aufzuwerfen, und zweitens den Raum für Diskussionen sowohl in kleinen Kreisen als auch in großer Runde zu öffnen. Der Workshop versteht sich als offene und inklusive Initiative, die dediziert „Collegiality and Connectedness“ in den DH befördern und mit den kreativen Formaten „Pecha Kucha“ und „World Café“ das Konferenzmotto „Spielräume“ adressieren möchte.

 
13:30 - 17:00Workshop 6
Q 2 113 
 

Spielplätze der Theoriebildung in den Digital Humanities

Jonathan Geiger1, Jasmin Pfeiffer2

1Akademie der Wissenschaften und der Literatur | Mainz, Deutschland; 2Universität des Saarlandes, Lehrstuhl für Neuere deutsche Literaturwissenschaft | Medienwissenschaft, Saarbrücken, Deutschland

Die Digital Humanities haben sich mittlerweile als Forschungsfeld etabliert. Doch auch, wenn sporadische und unsystematische Ansätze der Theoretisierung der Objekte, Methoden und Theorien auf die nächste Phase der wissenschaftlich-disziplinären Ontogenese hindeuten, stellt eine integrative Theorie des Digitalen in den DH noch ein Desiderat dar. Der Workshop “Spielplätze der Theoriebildung in den Digital Humanities” adressiert diesen Mangel und will digitale GeisteswissenschaftlerInnen zusammenbringen, um diskursiv im ideal erscheinenden Format eines World Cafés die Grundlage für eine systematische Theorie der DH zu schaffen. An verschiedenen Thementischen werden Theoretisierungsbedarfe identifiziert, Perspektiven artikuliert und erste Begriffsproblematisierungen dokumentiert. Der Workshop soll weiterhin dazu dienen, an wissenschaftstheoretischen Reflexionen interessierte ForscherInnen zu vernetzen und den Verstetigungsbedarf dieser Forschungsrichtung auszuloten.

 
15:00 - 15:30Kaffeepause
 
17:15 - 18:00Chorprobe
Chair der Sitzung: Torsten Roeder, Deutsche Akademie der Naturforscher Leopoldina
Q 1 101 
17:15 - 18:15AG Digital Humanities Theorie
Q 1 113 
Datum: Dienstag, 03.03.2020
9:00 - 12:30Workshop 1b

Bias in Datensätzen und ML-Modellen: Erkennung und Umgang in den DH
(Fortsetzung vom Vortag)
Q 0 101 
9:00 - 12:30Workshop 8
Q 1 101 
 

Modellierung und Verwaltung von DH-Anwendungen in TOSCA

Philip Schildkamp1, Claes Neuefeind1, Brigitte Mathiak1, Lukas Harzenetter2, Frank Leymann2, Uwe Breitenbücher2

1Universität zu Köln, Data Center for the Humanities (DCH); 2Universität Stuttgart, Institut für Architektur von Anwendungssystemen (IAAS)

Um der DH Community unseren Ansatz zur Modellierung und Verwaltung von DH-Anwendungen in TOSCA interaktiv darzubieten, möchten wir im Vorfeld der DHd 2020 einen Workshop zur Modellierung und Verwaltung von DH-Anwendungen in TOSCA durchführen. Dabei sollen Kernkompetenzen bezüglich der Modellierung von Softwaresystemen mit TOSCA sowie Erfahrungen und Best Practices im Umgang mit OpenTOSCA, einer open-source Implementierung des Standards, vermittelt werden.

 
9:00 - 12:30Workshop 12
Q 2 101 
 

Maschinelles Lernen lernen: Ein CRETA-Hackatorial zur reflektierten automatischen Textanalyse

Gerhard Kremer, Kerstin Jung

Universität Stuttgart, Deutschland

Das Ziel die­ses Tu­to­ri­als ist es, den Teil­neh­me­rin­nen und Teil­neh­mern kon­kre­te und prak­ti­sche Ein­bli­cke in einen Stan­dard­fall au­to­ma­ti­scher Text­ana­ly­se zu geben. Am Bei­spiel der au­to­ma­ti­schen Er­ken­nung von En­ti­tä­ten­re­fe­ren­zen gehen wir auf all­ge­mei­ne An­nah­men, Ver­fah­rens­wei­sen und me­tho­di­sche Stan­dards bei ma­schi­nel­len Lern­ver­fah­ren ein. Die Teil­neh­me­rin­nen und Teil­neh­mer kön­nen beim Be­ar­bei­ten von lauf­fä­hi­gem Pro­gram­mier­code den Ent­schei­dungs­raum sol­cher Ver­fah­ren aus­leuch­ten und aus­tes­ten.

Neben einem Py­thon-Pro­gramm für die au­to­ma­ti­sche An­no­tie­rung von En­ti­tä­ten­re­fe­ren­zen, mit und an dem wäh­rend des Tu­to­ri­als ge­ar­bei­tet wer­den wird, stel­len wir ein he­te­ro­ge­nes, ma­nu­ell an­no­tier­tes Kor­pus sowie die Rou­ti­nen zur Eva­lua­ti­on und zum Ver­gleich von An­no­ta­tio­nen zu Ver­fü­gung.

 
9:00 - 14:00DHd-Vorstandssitzung
Q 2 419 
9:00 - 17:00Workshop 9
Q 1 203 
 

Deep Learning für visuelle Medien: Annotation, Training, Analyse

Gernot Howanitz1, Erik Radisch2

1Universität Passau, Deutschland; 2Sächsische Akademie der Wissenschaften zu Leipzig

Der Workshop ist dazu konzipiert, den Teilnehmerinnen und Teilnehmer in den Umgang mit künstlichen neuronalen Netzen einzuführen. Vermittelt werden neben theoretischen Grundlagen auch Workflows zum Annotieren, Trainieren und Analysieren von visuellen Medien. Als Resultat wird es den TN ermöglicht, im Internet frei verfügbare neuronale Netze zu installieren und auf eigene Forschungsfragen zuzuschneiden. Vorwissen wird keines vorausgesetzt, grundlegende Kenntnisse im Umgang mit Python Notebooks sind von Vorteil.

 
9:00 - 17:00Workshop 10
Q 1 213 
 

OCR4all – Eine semi-automatische Open-Source-Software für die OCR historischer Drucke

Maximilian Wehner1, Michael Dahnke2, Florian Landes3, Robert Nasarek4, Christian Reul1

1Julius-Maximilians-Universität Würzburg, Deutschland; 2Universität Siegen, Deutschland; 3Bayerische Akademie der Wissenschaften, Deutschland; 4Martin-Luther-Universität Halle-Wittenberg, Deutschland

Während die Optical Character Recognition (OCR) moderner Texte als informatisch gelöstes Problem betrachtet werden kann, gilt dies für vormoderne Frühdrucke von Inkunabeln bis hin zu den Frakturdrucken des 19. Jahrhunderts nur sehr eingeschränkt. Mit der Entwicklung der OCR-Software OCR4all wird dem vor allem geisteswissenschaftlichen Bedürfnis eines kohärenten und modularen OCR-Workflows Rechnung getragen. Dieser erlaubt es auch einem informatisch nicht geschulten Nutzerkreis, für besagte Textgruppen eigenständig maschinenverarbeitbaren Text zu generieren, der höchsten Qualitätsansprüchen und Anforderungen sowohl der modernen Editionsphilologie als auch quantitativen Analyseverfahren der Digital Humanities genügt. Der vorliegende Workshop beschäftigt sich diesbezüglich aus Anwendersicht mit Fragen der Installation der Software, der Durchführung und Anwendung der vorzustellenden Arbeitsabläufe sowie der projekt- und textgruppenspezifischen Anpassung des OCR-Workflows.

 
9:00 - 17:00Workshop 11
Q 1 219 
 

Einführung in TEI-ODD

Peter Stadler2, Benjamin W. Bohl1, Raffaele Viglianti3

1Goethe-Universität Frankfurt am Main, Deutschland; 2Universität Paderborn, Deutschland; 3MITH, University of Maryland, College Park, MD, USA

ODD (One Document does it all) bildet als Meta-Schemasprache die Grundlage der Codierungsrichtlinien und Schemata sowohl der Text Encoding Initiative als auch der Music Encoding Initiative und wird im Umfeld dieser Communities besonders von digitalen Editionen genutzt. Für diese Unternehmungen stellt die Dokumentation (im ODD-Format) der jeweils spezifischen Nutzung der TEI bzw. der MEI-Richtlinien gewissermaßen die digitalen Editionsrichtlinien dar.

Der ganztägige Workshop richtet sich an Einsteiger, die die notwendigen theoretischen Hintergründe als auch praktische Hilfestellungen zum Erstellen eines ersten eigenen Schemas vermittelt bekommen sollen. Hierfür wird als niederschwelliger Einstieg im ersten Teil des Workshops zunächst der von Raffaele Viglianti neu entwickelte webbasierte ODD-Editor „Roma“ vorgestellt und einfaches Subsetting von TEI geübt, wie etwa das Hinzufügen oder Entfernen von ganzen Modulen, einzelnen Elementen oder Attributen.

Im zweiten Teil des Workshops sollen dann durch direktes Bearbeiten des ODD-Quelldokuments erweiterte Funktionen wie ODD-Chaining oder das Generieren von Schemata mit mehreren Namespaces erläutert werden.

 
9:00 - 17:00Workshop 14
Q 2 122 
 

Barcamp data literacy: Datenkompetenzen in den digitalen Geisteswissenschaften vermitteln

Ulrike Wuttke1, Marina Lemaire2, Schulte Stefan3, Patrick Helling4, Jonathan Blumtritt4, Stefan Schmunk5

1Fachhochschule Potsdam, Fachbereich Informationswissenschaften, RDMO, Deutschland; 2Universität Trier, Servicezentrum eSciences, Deutschland; 3Philipps-Universität Marburg, Marburg Center for Digital Culture & Infrastructure (MCDCI), Deutschland; 4Data Center for the Humanities (DCH), Universität zu Köln, Deutschland; 5Hochschule Darmstadt, Fachbereich Media, HeFDI, Deutschland

Im Mittelpunkt des hier vorgeschlagenen Barcamps zur data literacy steht die Vermittlung von Datenkompetenzen in den digitalen Geisteswissenschaften. Die explizite Vermittlung von Datenkompetenzen mit Schwerpunkt Forschungsdatenmanagement (FDM) steht trotz ihrer zunehmenden Wichtigkeit noch vergleichsweise selten im Mittelpunkt geisteswissenschaftlicher Studiengänge und des Forschungsalltags und es liegen noch wenig disziplinspezifische Erfahrungen und Empfehlungen vor. Im Rahmen des Barcamps sollen daher Fragen wie das “Wann” und “Wie” des Erwerbs von FDM-Kompetenzen, geeignete didaktische Formate oder die Abgrenzung bezüglich tiefergehender DH-Kompetenzen, wie sie in spezialisierten Studiengängen vermittelt werden, stehen. Unter Einbeziehung unterschiedlichster Perspektiven sollen diese Fragen im Rahmen eines offenen, partizipatorischen Format diskutiert werden, das stark vom Input aller Teilnehmer*innen lebt und besonders geeignet scheint für eine explorative Diskussion komplexer Themenbereiche. Das geplante Barcamp ist Teil der Bemühungen der DHd-AG Datenzentren, weiterführende Anforderungen und Aufgaben des langfristigen digitalen Kulturwandels in den Geisteswissenschaften zu eruieren.

 
10:30 - 11:00Kaffeepause
 
12:00 - 13:30AG Zeitungen & Zeitschriften
Q 5 245 
12:00 - 14:00AG Graphentechnologien
Q 4 245 
12:30 - 13:15Chorprobe
Chair der Sitzung: Torsten Roeder, Deutsche Akademie der Naturforscher Leopoldina
Q 1 101 
12:30 - 13:30Mittagspause
 
13:30 - 17:00Workshop 7
Q 0 101 
 

Showtime – sehen und gesehen werden! Erzeugung semantischer (Spiel-)Räume für kollaboratives Arbeiten mit multimedialen Annotationen im Mehrdimensionalen

Jan Gerrit Wieners, Zoe Schubert, Enes Türkoğlu, Kai Michael Niebes, Øyvind Eide

Institut für Digital Humanities, Universität zu Köln, Deutschland

Dieser Workshop soll seinen Teilnehmerinnen und Teilnehmern aufzeigen, wie sie für ihre Forschung relevante multimediale Objekte (3D-Modelle, Bilder, Sounds und Videos) für kollaboratives interdisziplinäres Arbeiten online bereitstellen, durch Annotationen mit Informationen anreichern und untereinander verknüpfen können. Einerseits steht dabei das Präsentieren der Objekte, andererseits das Sammeln von Informationen zu diesen im Vordergrund. In der praktischen Umsetzung wird hierfür das browserbasierte open-source Tool Kompakkt eingesetzt, welches an der Universität zu Köln entwickelt und Mitte des Jahres 2019 veröffentlicht wurde. Es bietet seinen Nutzerinnen und Nutzern einen beinahe spielerischen Interaktionsraum, in dem die Objekte über einen modernen Webbrowser bereitgestellt, kollaborativ exploriert, erforscht und annotiert werden können. Kompakkt nutzt die 3D-Darstellung eines Objekts als Ausgangspunkt für das Sammeln heterogener Informationen, die durch den Einsatz von multimedialen Annotationen entstehen. Annotationen dienen dabei als flexible (Meta-)Daten, die die klassische Erfassung der Informationen erweitern. Durch Annotationen können textuelle Beschreibungen, aber auch Objekte als Annotationsinhalt angefügt werden.

 
13:30 - 17:00Workshop 2b

Nachlass Ludwig Wittgenstein: Softwaretechnologien und computerlinguistische Methoden der Software-Infrastruktur um die FinderApp WiTTFind
(Fortsetzung vom Vortag)
Q 1 101 
13:30 - 17:00Workshop 3
Q 1 113 
 

Hackathon „Sortir de la guerre“

Silke Schwandt1, Anne Baillot2, Ludovic Gervais2, Camille Braud2, Clement Thomas2, Lou-Ann Bonsergent2, Adrian Strothotte1, Laura Maria Niewöhner1

1Universität Bielefeld, Deutschland; 2Université Le Mans, Frankreich

Dieser Workshop versteht sich als spielerische Exploration der im Rahmen des Projekts „Sortir de la guerre (1919-1930)“ gesammelten Daten. Diese werden den Workshopteilnehmenden sowohl in virtueller als auch in physischer Form zur Verfügung gestellt (die Ausstellung soll im März 2020 in Workshopnähe gezeigt werden).

(Daten-) Exploration als zentrales Moment der DH steht im Mittelpunkt des Workshops. Kombiniert werden Elemente aus dem Bereich der DH, der Data Literacy und der spielerischen Vermittlung von Wissen. Spielerische Kultur- und Geschichtsvermittlung sind seit der Entstehung der Museumspädagogik etablierter Teil der Arbeit im Museum. Museen und andere kulturelle Institutionen gehören zudem zu den bevorzugten Arbeitsfeldern von Studierenden aus den Geisteswissenschaften.

 
13:30 - 17:00Workshop 13
Q 2 101 
 

Vom Phänomen zur Analyse – ein CRETA-Workshop zur reflektierten Operationalisierung in den DH

Nora Ketschik1, Benjamin Krautter1, Sandra Murr1, Janis Pagel1, Nils Reiter2,1

1Universität Stuttgart; 2Universität zu Köln

Der Workshop adressiert eine der großen Herausforderungen für Arbeiten in den Digital Humanities – die Operationalisierung geisteswissenschaftlicher Konzepte und Fragestellungen für computergestützte Methoden. Anhand dreier Anwendungsfälle zeigen wir auf, welche Herausforderungen sich aus dem Einsatz computergestützter Methoden für geisteswissenschaftliche Zwecke ergeben und wie mit ihnen umgegangen werden kann. In einem praktischen Teil haben die Teilnehmenden die Möglichkeit, selbst an der Operationalisierung eines Phänomens zu arbeiten; hierfür stellen wir Anwendungsfälle mit geeigneten Tools und Technik-„Baukästen“ zur Verfügung. Programmierkenntnisse werden dabei nicht vorausgesetzt. Ziel des Workshops ist es, das Bewusstsein für die Differenzen zwischen geisteswissenschaftlicher und computergestützter Arbeitsweise zu schärfen, typische Herausforderungen zu adressieren und Herangehensweisen zur Operationalisierung geisteswissenschaftlicher Phänomene aufzuzeigen.

 
14:00 - 17:30AG OCR
Q 5 245 
15:00 - 17:00AG Digitales Publizieren
Q 4 245 
15:30 - 16:00Kaffeepause
 
17:00 - 18:00Pause & Bus-Transfer zum HNF
 
18:00 - 19:00Besichtigung des HNF Computermuseums
Heinz Nixdorf MuseumsForum (HNF) 
19:00 - 21:30Eröffnungsempfang mit Keynote
Chair der Sitzung: Michaela Geierhos, Universität Paderborn
Heinz Nixdorf MuseumsForum (HNF) 
Datum: Mittwoch, 04.03.2020
9:00 - 10:30V1: Komplexe Textphänomene
Chair der Sitzung: Manuel Burghardt, Universität Leipzig
H 1 
 

Redewiedergabe in Heftromanen und Hochliteratur

Annelen Brunner2, Fotis Jannidis1, Ngoc Duyen Tanja Tu2, Lukas Weimer1

1Julius-Maximilians-Universität Würzburg, Deutschland; 2Leibniz-Institut für Deutsche Sprache, Mannheim

Die Art und Weise, wie die Rede und die Gedanken einer Figur im Erzähltext eingebunden werden, ist einer der traditionellen Aspekte der Narratologie. Die vorgestellte Studie untersucht die Anteile unterschiedlicher Redewiedergabeformen im Vergleich zwischen zwei Literaturtypen von gegensätzlichen Ende des Spektrums: Hochliteratur – definiert als Werke, die auf der Auswahlliste von Literaturpreisen standen – und Heftromanen, massenproduzierte Erzählwerke unterschiedlicher Genres, die zumeist über den Zeitschriftenhandel vertrieben werden und früher abwertend als “Romane der Unterschicht” bezeichnet wurden. Unsere These ist, dass sich diese Literaturtypen hinsichtlich ihrer Erzählweise unterscheiden, und sich dies in den verwendeten Wiedergabeformen niederschlägt. Der Fokus der Untersuchung liegt auf der Dichotomie zwischen direkter und nicht-direkter Wiedergabe, die schon in der klassischen Rhetorik aufgemacht wurde.

Die Studie geht von manuell annotierten Daten aus und evaluiert daran die Validität automatischer Annotationswerkzeuge, die im Anschluss eingesetzt werden, um die Menge des betrachteten Materials beträchtlich zu erweitern.



Integrating user-specified Knowledge for semi-automatic Coreference Resolution

David Schmidt, Markus Krug, Frank Puppe

Universität Würzburg, Deutschland

Coreference resolution is an important step for the analysis of literary texts since it enables the aggregation of locally gained knowledge (e.g. on sentence level). Unfortunately, even current state-of-the-art coreference resolution systems are unable to produce reliable results. Some approaches use knowledge bases like Wikipedia or Wikidata, which contain information about real-world entities but not about fictional characters of literary novels. In this work, we present a semi-automatic mechanism that integrates users' prior knowledge about the characters of a literary text into a rule-based coreference resolution system. With this approach, we were able to improve the F1 score of the B-Cubed metric by up to 10.6\% on fragments of historic novels.

 
9:00 - 10:30V14: Quantitative Zugänge zu Musik
Chair der Sitzung: Torsten Roeder, Deutsche Akademie der Naturforscher Leopoldina
H 2 
 

Differenz und Ähnlichkeit in der computergestützten Filiation von Renaissancemusik

Anna Plaksin

Max Weber Stiftung, Deutschland

Die Filiation wird in der Renaissancemusikforschung nicht nur im Rahmen der Edition zur Bewertung von Lesarten verwendet, sondern auch in repertoiregeschichtlichen Studien. Sollen Repertoirestudien durch den Einsatz von computergestützten Methoden auf eine breitere Basis gestellt werden, stellen sich wesentliche Fragen.

So geht es methodisch darum, eine Gruppe ähnlicher Texte entsprechend ihrer Differenz in Relation zu bringen. Damit rückt vor allem die Frage nach dem Verhältnis von Ähnlichkeit und Differenz von in Mensuralnotation überlieferten Quellen in den Fokus. Eine wesentliche Herausforderung stellt hierbei die strukturelle Ambiguität von Mensuralnotation dar, in der Zeichen und Bedeutung nicht stabil ineinander überführbar sind. Zur Auswahl geeigneter Parameter bei der Entwicklung von Substitutionsmodellen, wird eine datenbasierte Evaluationsmethode vorgestellt, die Rückschlüsse auf die Trennkraft der gewählten Parameter ermöglicht.



Zu den Anforderungen einer musikalischen Stilometrie

Johannes Kepper

Universität Paderborn, Deutschland

Der Beitrag stellt Überlegungen zur Übertragbarkeit stilometrischer Methoden auf musikalische Daten an, die sich strukturell erheblich von literarischen Texten unterscheiden. Gleichzeitig werden inhaltlich oder methodisch ähnliche Forschungen aus den Bereichen Music Information Retrieval und Algorithmische Komposition vorgestellt. Im Vergleich zeigt sich, dass sich mit einer unspezifischen, d.h. nicht an die Daten angepassten stilometrischen Analyse mittels Stylo bereits zuverlässigere Komponistenzuordnungen erreichen lassen, als dies menschlichen Hörern im Durchschnitt gelingt.



OMMR4all - ein semiautomatischer Online-Editor für mittelalterliche Musiknotationen

Christoph Wick, Alexander Hartelt, Frank Puppe

Universität Würzburg, Deutschland

OMMR4all verbindet optische Musikerkennung (OMR) mit einem Korrekturframework für mittelalterliche Neumennotationen in einem Online-Editor. Verschiedene OMR-Algorithmen erkennen automatisch Notenlinien, Notensysteme, Layout und Musiksymbole mittels Deep Learning. Ein Overlay-Editor dient zur Korrektur von Fehlern bei jeder Phase der Verarbeitung. Da die Notationsstile zwischen den Bücher eine hohe Varianz zeigen, sind die Standardmodelle von OMMR4all nicht immer passend für die Vorlage. Deswegen können neue Modell basierend auf manuell korrigiertem Material trainiert werden, um die automatische Verarbeitung zu verbessern. Experimente zeigen, dass bereits wenige Seiten (5-10) ausreichend um ein robustes Modell zu erreichen, jedoch erlaubt ein iterativer Trainingsprozess eine stetige Verbesserung der Modelle durch Hinzufügen von neuen annotierten Partituren. OMMR4all zielt auf Musikwissenschaftler ab, die ist ein benutzerfreundliches Werkzeug suchen, um mittels minimalen menschlichen Aufwand große Sammlungen von historischen Material zu kodieren.

 
9:00 - 10:30V3: Interpretationsspielräume
Chair der Sitzung: Nils Reiter, Universität zu Köln
H 3 
 

Würgegriff oder Rettungsanker? – Interpretationsspielräume handschriftlicher (Musik-)Quellen im digitalen Kontext

Joachim Veit

Universität Paderborn, Deutschland

Artikulation und Dynamik in Musikhandschriften bieten eine Fülle von Schwierigkeiten bezüglich ihrer inhaltlichen Deutung. Editionen verlangen in der Regel Eindeutigkeit. Bisherige digitale Musikeditionen suchen den Deutungsspielraum durch Faksimiles oder explizite Codierung von Lesarten bzw. zusätzlich durch die enge Bindung des Textes an das Dokument wieder zu öffnen. Für eine grundsätzlichere Bewertung der Phänomene ist mehr erforderlich: Bestimmung operationalisierbarer Fragestellungen sowie Materialitäts- und Schriftlichkeitsuntersuchungen auf einer großen Datenbasis unter Rückgriff auf Methoden der Künstlichen Intelligenz – jedoch stets im Zusammenspiel mit der Kontrollinstanz von Einzelstudien, die explizit die vielfältigen Kontexte berücksichtigen, in die Zeichen eingebettet sind.



Interpretationsspielräume. Undogmatisches Annotieren literarischer Texte in CATMA 6

Jan Horstmann, Janina Jacke

Universität Hamburg, Deutschland

Damit sich Annotation als Methode in der Literaturwissenschaft etablieren kann, müssen Annotationstools die theoretischen und methodischen Spezifika literaturwissenschaflicher Textauslegung abbilden. Dieser Beitrag demonstriert am Beispiel der Annotations- und Analyseplattform CATMA 6, wie dies aussehen kann. Literaturwissenschaftliche Textauslegung zeichnet sich besonders durch verschiedenartige Spielräume aus: Textinterpretation kann mannigfaltige Ziele haben, literarische Texte sind oft ambig und deswegen unterschiedlich auslegbar und die Arbeit am Text kann methodisch unterschiedlich gestaltet sein. Diese Spielräume zu schaffen und zugleich behutsam zu reglementieren, ist eine große Herausforderung für Annotationsprogramme. In CATMA 6 wird diesem Desiderat durch eine Vielzahl besonderer Funktionaliäten begegnet: (1) Drei Annotationmodi erlauben eine an Phasen und persönliche Arbeitsweise angepasste Texterforschung; (2) Mehrfachannotationen ermöglichen die Untersuchung verschiedener Textdimensionen und die Formulierung konkurrierender Interpretationshypothesen; (3) mit Metaannotationen können Interpretationshypothesen kontextualisiert, argumentativ gestützt oder modalisiert werden; und (4) im Rahmen kollaborativer Annotation können Interpretationen in einem individualisierbaren Projektsetting gemeinsam erarbeitet und ausgehandelt werden.



Varianz, Ambiguität, Unsicherheit. Methodische Schlaglichter zur mittelniederdeutschen Grammatikographie

Sarah Ihden

Universität Hamburg, Deutschland

Eine besondere Herausforderung in der Grammatikographie historischer Sprachstufen des Deutschen stellt der Umgang mit Varianz, Ambiguitäten und Unsicherheiten dar. Hinzu kommt die Gefahr, dass durch die den Analysen für die Grammatikschreibung zugrunde gelegten Daten, insbesondere grammatische Annotationen in Korpora, die Ergebnisse dieser Analysen gewissermaßen vorgeprägt sind. Diese Besonderheiten sind auch bei der geplanten Bearbeitung der Flexionsmorphologie als Teil einer neuen wissenschaftlichen mittelniederdeutschen Grammatik zu berücksichtigen. Im Vortrag sollen die Methoden und Grundsätze dieser neuen Grammatik vorgestellt werden, wobei ein Fokus auf der Variationssensitivität und dem Korpusbezug liegt. Zudem soll beschrieben und anhand erster Analysen veranschaulicht werden, wie in der Erforschung der mittelniederdeutschen Flexionsmorphologie dem potentiellen Risiko einer zirkulären Darstellung begegnet wird und wie auf der Basis von Daten, die möglichst oberflächenbezogen annotiert und in denen Ambiguitäten ausgezeichnet sind, flexionsmorphologische Variation ermittelt und vor dem Hintergrund potentieller außer- und innersprachlicher Parameter beschrieben werden kann.

 
9:00 - 10:30DC: Doctoral Consortium
Chair der Sitzung: Stefan Schmunk, Hochschule Darmstadt - University of Applied Sciences
H 4 
 

Doctoral Consortium, Svenja Guhr

Svenja Guhr

TU Darmstadt, Deutschland



Doctoral Consortium, Stefan Reiners

Stefan Reiners

Ruhr-Universität Bochum, Deutschland

 
10:30 - 11:00Kaffeepause
 
11:00 - 12:30Panel 1
C 2 
 

Altbausanierung mit Niveau - die Digitalisierung gedruckter Editionen

Chair(s): Max Grüntgens (Akademie der Wissenschaften und der Literatur Mainz), Martin Prell (Klassik Stiftung Weimar)

Vortragende: Martina Gödel (Textloop), Dominik Kasper (Akademie der Wissenschaften und der Literatur Mainz), Frederike Neuber (Berlin-Brandenburgischen Akademie der Wissenschaften), Torsten Schaßen (Herzog August Bibliothek Wolfenbüttel), Thomas Stäcker (ULB Darmstadt, FH Potsdam)

In den letzten Jahren mehren sich Unternehmungen zur Digitalisierung von Druckeditionen. Dabei wurden Erfahrungen und Expertisen aufgebaut, die sich auf verschiedenste Aspekte der Digitalisierung von Editionen richten. Die An- bzw. Herausforderungen, die entsprechende Projekte mit sich bringen, und die sich teils deutlich von der Erstellung von born digital-Editionen unterscheiden, sind bisher noch nicht systematisch und in projektübergreifender Perspektive untersucht worden. Dazu gehören beispielsweise ein häufig unterschätzter organisatorischer, konzeptioneller und technischer Aufwand oder der richtige Umgang mit heterogenen Projektanforderungen, Erwartungen und disziplinspezifischen Mentalitäten. Ferner stellt sich die Frage, welchen Stellenwert Digitalisierungen im Kosmos der digitalen Editionstypen einnehmen können und wie gedruckte Editionen unter den neuen medialen Bedingungen methodisch angemessen transformiert und für die Zukunft gesichert werden können. Das Panel wird diese und weitere Fragen aus der Sichtweise unterschiedlicher Akteure (Wissenschaft, Bibliothek, Dienstleister) diskutieren, mit dem Ziel Best Practices zu formulieren und einen vertieften Diskurs zu digitalisierten Editionen anzuregen.

 
11:00 - 12:30V4: Parameter in der Textanalyse
Chair der Sitzung: Nils Reiter, Universität zu Köln
H 1 
 

„The Vectorian“ – Eine parametrisierbare Suchmaschine für intertextuelle Referenzen

Manuel Burghardt, Bernhard Liebl

Computational Humanities Group, Universität Leipzig

In diesem Beitrag stellen wir eine parametrisierbare Suchmaschine für die Identifizierung intertextueller Referenzen vor. Dabei werden neben zwei verschiedenen "word embeddings" weitere Parameter wie bspw. die Berücksichtigung unterschiedlicher Wortarten, das Erlauben von Einfügungen und generell die Gewichtung von Textvariationen implementiert.

"The Vectorian" versteht sich als experimentelle Plattform mit deren Hilfe unterschiedliche Parameterkonfigurationen erprobt werden können, um so im Sinne eine "interpretable machine learning"-Ansatzes Rückschlüsse für die optimale Konfiguration eines maschinellen Lernverfahrens zur semi-automatischen Zitat-Detektion (bspw. für die Werke Shakespeares) zu erlangen.

Der "Vectorian" ist während des peer reviews für die Gutachter unter dieser Adresse verfügbar:

URL : http://vectorian.poke1024.com:8080/

Login (über den Suchschlitz): pixel-dolby-chariot-sunset



Der Spielraum zwischen „zu wenig“ und „zu viel“

Keli Du

Universität Würzburg, Deutschland

Topic Modeling wurde in den letzten Jahren mehr und mehr in Digital Humanities eingesetzt. Aber die technische Seite von Topic Modeling in Forschungsberichten, im Vergleich zur Analyse und Interpretation der Topics und des Modells, wurde weniger vorgestellt und diskutiert. Es gibt zum Beispiel keine Regeln, wie man die Topics-Anzahl festlegen kann, weil der Einfluss der Topics-Anzahl auf die Qualität des Topic Modells unklar ist. Deshalb wurde der Spielraum im Sinne von Topics-Anzahl bei Topic Modeling aus zwei Perspektiven in dieser Arbeit untersucht, nämlich Dokument-Klassifikation und Topic-Kohärenz.



Typisierte Varianz-Analyse von Texten

Nico Balbach1, Christian Reul1, Frank Puppe1,2

1Zentrum für Philologie und Digitalität „Kallimachos“, Universität Würzburg, Deutschland; 2Lehrstuhl für Künstliche Intelligenz und Angewandte Informatik, Universität Würzburg, Deutschland

Der Buchstaben-basierte Vergleich verschiedener Ausgaben oder Versionen eines Werkes ist eine häufige philologische Arbeit, die in vielen Texteditoren durch eine generische Diff-Funktion unterstützt wird. Allerdings muss eine feinere Differenzierung bisher manuell durchgeführt werden. Wir präsentieren das webbasierte, einfach bedienbare Open-Source Tool "Variance Viewer", mit dem man per Konfigurationsdatei verschiedene Typen von Differenzen definieren und übersichtlich anzeigen lassen kann. Weiterhin berichten wir von ersten, sehr positiven Erfahrungen in zwei philologischen Projekten sowie von Perspektiven der Weiterentwicklung.

 
11:00 - 12:30V5: Visualisierung und Erkenntnis
Chair der Sitzung: Lars Wieneke, Universität Luxembourg
H 2 
 

Die Falte: Ein Denkraum für interaktive und kritische Datenvisualisierungen

Viktoria Brüggemann, Mark-Jan Bludau, Marian Dörk

UCLAB, Fachhochschule Potsdam, Deutschland

Wir schlagen den philosophischen Begriff der Falte als Denkraum für die Gestaltung und Interpretation interaktiver Datenvisualisierungen vor. Visualisierungen geisteswissenschaftlicher Sammlungen bieten spannende Möglichkeiten für interaktive Repräsentationen, welche die Sammlungen und ihre zugrundeliegenden Objekte zugänglich machen, sie aber ebenso kritisch beleuchten sollten. Dies führt nicht selten zu komplexen und teils widersprüchlichen Anforderungen an die entstehenden Visualisierungen. Das von Gilles Deleuze ausgearbeitete Konzept der Falte eröffnet einen Denkraum, der die Aufmerksamkeit nicht nur auf die Vielfalt visueller Repräsentation, sondern auch auf die vermeintliche Objektivität der zugrundeliegenden Daten lenkt. Darüber hinaus bietet die Falte eine Möglichkeit, Visualisierungen durch die Linse von drei integrierten Operationen zu analysieren und zu konzeptualisieren: Explikation, Implikation und Komplikation. Durch diese Linse betrachtet werden interaktive Visualisierungen zu Portalen, welche Zugang zu kohärenten, elastischen und letztlich unendlichen Informationsräumen anbieten können.



Ikonizität als Erkenntnismittel - Vollständigkeit, Verständlichkeit und Kontextualisierung als Grundprinzipien der Visualisierung

Linda Freyberg1,2

1Leuphana Universität Lüneburg; 2Fachhochschule Potsdam, Deutschland

Der Vortrag beruht auf einer Dissertation, welche sich mit Bildlichkeit als Erkenntnismittel im Kontext digitaler Wissensorganisation beschäftigt. Die Ikonizität der Information adressiert in diesem Kontext einmal eine implizite Dimension auf einer strukturellen, morphologischen oder topologischen Ebene sowie explizite visuelle Ausdrucksformen wie Visualisierungen, die Objekte und ihre Relationen anschaulich machen. Paul Otlets Mundaneum, Otto Neuraths Isotype und Aby Warburgs Mnemosyne Bildatlas fungieren dabei als historische Beuspiele und werden als Modelle betrachtet, wie man Wissen ordnen, darstellen und visuell präsentieren kann. Die grundsätzlichen Ansätze der Vollständigkeit, Verständlichkeit und Kontextualisierung werden als Hauptmodi der Visualisierung präsentiert und jeweils mit zeitgenössischen Visualisierungen aus dem Bereich der Kulturdaten in Bezug gesetzt.



3D-Rekonstruktion als Werkzeug der Quellenreflexion

Heike Messemer1, Christiane Clados2

1Julius-Maximilians-Universität Würzburg, Deutschland; 2Philipps-Universität Marburg, Deutschland

In den letzten Jahren sind 3D-Rekonstruktionen nicht nur zu einem bedeutenden Instrument bei der Visualisierung bestimmter Aspekte des kulturellen Erbes geworden, sondern sie erlauben zudem, bestehende Arbeitshypothesen zu überprüfen und einen Mehrwert an Erkenntnis zu erzielen. Wie aber generiert sich der Erkenntnisgewinn während des Rekonstruktionsprozesses und der damit einhergehenden (Re-)Evaluierung von Quellen und Befund? Wie lässt sich ein Mehrwert an Wissen in die bereits etablierten Dokumentationsmethoden integrieren? Der Beitrag möchte diese Fragen am Beispiel der 3D-Rekonstruktion eines architektonischen und eines archäologischen Objekts diskutieren: die Ruine der im Zweiten Weltkrieg zerstörten Sophienkirche Dresden, die 1964 abgerissen wurde; ein altkolumbianischer Nasenschmuck aus der Sammlung des Museo Del Oro, Bogotá.

 
11:00 - 12:30V6: Quantitative Zugänge zu Bildern
Chair der Sitzung: Thorsten Wübbena, Leibniz-Institut für Europäische Geschichte (IEG)
H 3 
 

Critical Machine Vision. Eine Perspektive für die Digital Humanities

Peter Bell, Fabian Offert

FAU Erlangen-Nürnberg, Deutschland

Mit dem Begriff Critical Machine Vision möchten wir in den Digital Humanities Forschungsfragen etablieren, durch die Digital Humanities nicht nur digitale Methoden auf geisteswissenschaftliche Gegenstände anwenden, sondern umgekehrt die informatischen Werkzeuge mit Methoden der Digital Humanities und der Geisteswissenschaften verwenden, um Machine Vision zu analysieren und alternative Lösungswege aufzuzeigen. Wir konzentrieren uns bei der Analyse auf die maßgeblichen Bilddatenbanken, die in der Computer Vision zum Anlernen neuronaler Netze verwendet werden: ImageNet und COCO. Hier sind Verzerrungen und Inkonsistenzen zu beobachten, die dem Anspruch Welt und Alltag zu repräsentieren zuwiderlaufen und eher Stereotypen und westliche Narrative reproduzieren. Sowohl in der kritischen Analyse wie den methodisch-technischen Ansätzen zur Veränderung des Trainings, geht es um die Interpretierbarkeit von Convolutional Neural Networks (CNN).



Multimodaler Bedeutungstransfer vom Text zum Bild. Granulare Bildklassifikation durch Verteilungssemantik.

Simon Donig1, Christoforaki Maria1, Bermeitinger Bernhard2,1, Handschuh Siegfried2,1

1Universität Passau, Deutschland; 2Universität Sankt Gallen, CH

Mit dem vorgeschlagenen Vortrag stellen wir eine erste Implementierung eines Verfahrens vor, um sich die größere Ausdruckskraft von textbasierten Modellen zunutze zu machen, um die Fähigkeiten visueller Klassifikatoren zu erweitern. Ziel des Verfahrens ist es, anders als herkömmliche Klassifikatoren, die vorrangig um die Erreichung von Eindeutigkeit bemüht sind, taxonomische, mereologische und assoziative Beziehungen besser im Rahmen von Bildklassifikationsverfahren zu berücksichtigen und so der Vielgestaltigkeit der Lebenswelt besser Rechnung zu tragen.

Dabei wird ein Convolutional Neural Network (CNN) genutzt, dessen Ausgabe nicht auf einer Serie flacher Textlabel beruht, sondern auf Vektoren. Diese resultieren aus einem Distributional Semantic Model (DSM), welches aus einem historischen Domäne-Textkorpus generiert wurde. Auch mit einem sehr einfachen CNN erreichen wir eine Genauigkeit von 0,62 und können zugleich zeigen, dass die Top5 Label einen engen lebensweltlich-semantischen Bezug zueinander aufweisen.



Friends with Benefits: Wie Deep-Learning basierte Bildanalyse und kulturhistorische Heraldik voneinander profitieren

Torsten Hiltmann1, Sebastian Thiele2, Benjamin Risse2

1Humboldt-Universität zu Berlin, Deutschland; 2Westfälische Wilhelms Universität Münster, Deutschland

Wappen waren in Mittelalter und Früher Neuzeit allgegenwärtig. Doch trotz ihres hohen Erkenntnisinteresses für die Kulturgeschichte wurden sie bislang kaum erforscht. Dies mag auch an der schieren Menge und Vielfalt der Überlieferung liegen, der mit herkömmlichen Mitteln kaum beizukommen ist. Die maschinelle Bildanalyse wiederum profitiert von neuen Bilddomänen, da diese zentral für die Weiterentwicklung algorithmischer Methoden sind. Mit Wappen steht ihr dabei ein relativ leicht formalisierbarer Bildraum zur Verfügung, der zugleich die bisher dominierende Rolle der Bildtexturen in der automatischen Bildanalyse herausfordert.

Dieser Beitrag beschreibt die Entwicklung eines neuen Werkzeugs zur automatischen Detektion von Wappendarstellungen und demonstriert, wie durch Verfahren der Data Augmentation der übliche Erkennungsraum in der Bildanalyse von den Texturen auf die grundlegende Geometrie der Wappen umgeleitet werden konnte. Die so erlangten Ergebnisse wiederum stellen die Kulturgeschichte vor neue und aufschlussreiche Fragen und Perspektiven, womit letztlich beide Seiten erheblich von der gemeinsamen Beschäftigung mit Wappendarstellungen profitieren.

 
12:30 - 14:00Mittagspause
 
12:30 - 14:00AG Zeitungen & Zeitschriften
H 5 
12:30 - 14:00AG Datenzentren
H 6 
12:30 - 14:00AG Research Software Engineering in den Digital Humanities
Q 1 314 
12:30 - 14:30AG Film und Video
H 4 
14:00 - 15:30Panel 2
C 2 
 

Datamodelling Drama and (Musical)theater

Chair(s): Katrin Dennerlein (JMU Würzburg, Deutschland)

Vortragende: Birk Weiberg (Hochschule Luzern), Klaus Illmayer (Österreichische Akademie der Wissenschaften), Katrin Bicher (Staats- und Universitätsbibliothek Dresden), Gesa zur Nieden (Universität Greifswald), Katrin Dennerlein (JMU Würzburg)

Die Katalogisierung von Sammlungs- und Bibliotheksbeständen und zahlreiche Datenbankprojekte aus der Dramen-, Theater- und Musikforschung haben in den letzten Jahrzehnten eine bisher kaum berücksichtigte Fülle von Material zum (Musik-)theater in gedruckter und handschriftlicher Form zu Tage gefördert und recherchierbar gemacht. Die ebenfalls rasch voranschreitende Bilddigitalisierung macht dieses Material der Forschung ohne Hürden und Zeitverlust auch zugänglich. Allerdings fehlt es noch weitgehend an Verknüpfungen zwischen den Projekten zu Aufführungsdaten, Texten, Noten und Werken, so dass Strukturen und Zusammenhänge wie Werk- und Aufführungsserien, Gattungszusammenhänge oder Popularität und Wirkung noch nicht sichtbar werden. Bibliotheken, Portale und Projekte verwenden zudem verschiedene Metadatenstandards und Datenmodelle, so dass sie derzeit nicht über ein gemeinsames Portal zugänglich gemacht werden können. Das Panel widmet sich der Frage, wie man dramenbezogenen Informationen und ihre Relationen so modellieren kann, dass die (historischen) Kommunikationszusammenhänge, in denen Dramen und Aufführungen stehen, abgebildet und dadurch bei der Recherche wieder sichtbar gemacht werden können.

 
14:00 - 15:30V7: Textanalyse
Chair der Sitzung: Ulrike Henny-Krahmer, Universität Würzburg
H 1 
 

Spielräume bei der Retroperspektivischen Analyse der Wittgenstein-Edition und die Herausforderungen für das Semantic Clustering.

Maximilian Hadersbeck1, Sabine Ullrich1, Sebastian Still1, Alois Pichler2

1Ludwig-Maximilians Universität München; 2Wittgenstein Archiv Universität Bergen/Norwegen

In unserem Vortrag stellen wir die Verfahren unseres vorgeschaltetem Semantischen Clusterings und ein neues zeitgenetisches- und nicht dokumentorientiertes Modell einer Edition vor, das im web-Frontend des OdysseeReaders (www.odysseereader.wittfind.cis.lmu.de) implementiert ist. Das Semantic Clustering findet neben der Frage "Wo finden sich im Nachlass von Ludwig Wittgenstein semantisch ähnliche Bemerkungen" und auch Antworten auf die Frage „Wann gibt es bei der Entwicklung des Prototraktatus semantisch ähnliche Bemerkungen“.



SubRosa – Multi-Feature-Ähnlichkeitsvergleiche von Untertiteln

Jan Luhmann, Manuel Burghardt, Jochen Tiepmar

Computational Humanities Group, Universität Leipzig

In diesem Beitrag wird das Tool "SubRosa" vorgestellt, welches Ähnlichkeitsvergleiche von Filmen auf Basis der jeweiligen Untertitel erlaubt. Wir extrahieren dazu sprachbezogene Features aus den Untertiteln mit Methoden aus den Bereichen Information Retrieval, Natural Language Processing und Stilometrie und untersuchen eine mögliche Korrelation dieser Merkmale mit der Gesamtähnlichkeit der jeweiligen Filme. Darüber hinaus präsentieren wir eine neuartige Webanwendung zur interaktiven Auswertung unseres Experiments und zur vergleichenden Analyse von extrahierten Merkmalsdaten.

• Code: http://github.com/bbrause/subrosa

• Live-Demo: http://ch01.informatik.uni-leipzig.de:5001/



Spielräume definieren: Cooking Recipes of the Middle Ages

Christian Steiner, Helmut W. Klug

Universität Graz, Österreich

Kochtraditionen, ob regional oder international, sind eine der herausragendsten Elemente der europäischen Kultur und ein wichtiger Bestandteil der europäischen Identität. Aber die Fragen nach ihrem Ursprung, den Einflüssen und ihrer Entwicklung sind nach wie vor unklar.Es gibt keine quantitativen Studien über den Ursprung und die Entstehung der regionalen Küche in Europa. Erst ab dem Mittelalter sind Handschriften mit Tausenden von Kochrezepten überliefert, was wohl als die Geburt der modernen europäischen Küche angesehen werden kann. Das Projekt “Cooking Recipes of the Middle Ages” bereitet die Kochrezeptüberlieferung von Frankreich und dem deutschsprachigen Raum auf, um ihre Herkunft, ihre Beziehung und ihre Migration innerhalb Europas zu analysieren. Der Vergleich der französischen und deutschen Ernährungsgeschichte eignet sich besonders gut für diese Aufgabe, da Frankreich immer einen kulturell prägenden Einfluss auf die deutschsprachigen Völker hatte.

 
14:00 - 15:30V8: Digital Humanities Community
Chair der Sitzung: Walter Scholger, Universität Graz
H 2 
 

Wege bereiten, vermitteln und Denkräume schaffen! Digital Humanities als community-induziertes Phänomen

Ulrike Wuttke

Fachhochschule Potsdam, Deutschland

Dieser Beitrag stellt am institutionellen Beispiel „Universität“ exemplarisch dar, welche institutionellen Rahmenbedingungen die Digital Humanities brauchen, um Innovationspotenziale freizusetzen und eine tragende Rolle bezüglich der digitalen Transformation der breiteren Geisteswissenschaften einzunehmen. Im Mittelpunkt der Ausführungen steht die Betrachtung der Digital Humanities als community-induziertes Phänomen und die sich daraus ergebende wichtige Rolle von Induktion (Wegbereiter*innen und Vermittler*innen) und Inkubation (institutionelle Denk- und Begegnungsräume). Hiervon ausgehend wird ausgelotet, inwieweit diese Betrachtungsweise für andere institutionelle Kontexte fruchtbar gemacht werden können.



Partizipatives Design in Digital Humanities Projekten: Checklist, Maßnahmenkatalog und Use-Case

Swantje Dogunke

HTWK Leipzig, Deutschland

Zur Optimierung einer Bedarfsanalyse für digitale Infrastruktur in den Digital Humanities werden partizipative Entwicklungskonzepte vorgestellt und hinsichtlich ihrer potentiellen Eignung verglichen. Da der Einsatz von Co-Design aufgrund seine hohen Partizipationsgrades und seiner offenen Organisationsstruktur geeignet scheint, wurde eine Checkliste für Digital Humanites Projekte entwickelt, die neben einem Maßnahmenkatalog und einem Use-Case vorgestellt wird.

Anhand des Use-Case wird gezeigt, wie in einem eintägigen interdisziplinären Workshop mithilfe von Co-Design-Elementen eine detaillierte Anforderungsanalyse und ein Gestaltungskonzept für eine projektspezifische Arbeitsumgebung für Forschende erstellt werden konnte. Die eingesetzten Maßnahmen, wie z.B. Customer Journey Mapping oder eine mithilfe von LEGO-Steinen erstellte Stakeholderanalyse führten zu neuen Sichtweisen in der Zusammenarbeit von Geisteswissenschaftler*innen und Digital Humanities-Mitarbeiter*innen.

Das Ziel des Beitrages ist es, den Austausch und die Zusammenarbeit zwischen Digital Humanities-Forschenden anzuregen, die am Aufbau digitaler Infrastruktur beteiligt sind, um ein Toolkit für Co-Design in den Digital Humanities zu erstellen.



Public Humanities Tools: Der Bedarf an niederschwelligen Services

Jürgen Hermes1, Harald Klinke2, Dennis Demmer1

1Universität zu Köln, Deutschland; 2LMU, München

Die Einbeziehung von (Teil)Öffentlichkeiten in den Forschungsprozess, sowohl als Adressaten für Forschungsergebnisse, als auch als Lieferaten interessanter Daten, ist eine Forderung, der nicht zuletzt die Geisteswissenschaften nachkommen sollten. In dem Abstract werden mit autoChirp und autoPost zwei an der Universität zu Köln entwickelte niederschwellige, mithin auch durch nicht stark technikaffine Geisteswissenschaftler|innen nutzbare Services vorgestellt, die einen Beitrag dazu leisten können. Das Abstarct stellt dazu eine Reihe von Projekten aus den Bereichen Geschichte, Literaturwissenschaft und Kunstgeschichte vor, in denen diese Services bereits eingesetzt werden.

 
14:00 - 15:30V9: Dramenanalyse
Chair der Sitzung: Thomas Staecker, ULB Darmstadt
H 3 
 

Passive Präsenz tragischer Hauptfiguren im Drama

Marcus Willand1, Benjamin Krautter1,2, Janis Pagel2, Nils Reiter2,3

1Universität Heidelberg, Deutschland; 2Universität Stuttgart; 3Universität zu Köln

Der Vortrag stellt einen Versuch vor, Figurenpräsenz in dramatischen Texten auch als "passive Präsenz" zu modellieren, d.h. greifbar zu machen, dass gerade auf Hauptfiguren auf sehr unterschiedliche Weise referiert wird, wenn diese gerade nicht selbst handeln. Dazu stellen wir eine Operationalisierung von „passiver Präsenz“ vor und vergleichen die aktive und passive Präsenz von Hauptfiguren in unterschiedlichen dramatischen Gernres und Epochen. Die identifizierbare gattungsspezifische Präsenzgestaltung von Hauptfiguren lässt auf grundlegend divergierende Bauprinzipien dramatischer Text schließen. Da diese Unterschiede beim linearen Lesen jedoch kaum sichtbar sind, möchte dieser Forschungsbeitrag als Argument für die Erweiterung der qualitativ-interpretierenden Dramenanalyse durch quantitative Methoden verstanden werden.



Ein Schritt zurück: Distinktive Eigenschaften im deutschsprachigen Drama

Benjamin Krautter

Universität Stuttgart, Deutschland

Ziel dieses Beitrags ist es, zu erörtern, welche quantitativ erfassbaren Merkmale dramatischer Texte geeignet sind, um eine literarhistorische Verortung der Dramen vorzunehmen. Anders formuliert: Es sollen die Kriterien ermittelt werden, die bezogen auf die Entstehungszeit der Dramen distinktiv sind. Zu diesem Zweck dient eine Klassifikationsaufgabe. Ließen sich die dramatischen Texte erfolgreich ihrem Veröffentlichungszeitpunkt zuweisen, könnte daraus auf die Kriterien rückgeschlossen werden, die den entscheidenden Beitrag zu dieser Klassifikation leisten. Daran anschließend wäre eine Rückübersetzung der ermittelten Merkmale denkbar – analog zur Operationalisierung –, die eine Interpretation anleiten könnten.



Romeo, Freund des Mercutio: Semi-Automatische Extraktion von Beziehungen zwischen dramatischen Figuren

Nathalie Wiedmer1, Janis Pagel1, Nils Reiter1,2

1Universität Stuttgart, Deutschland; 2Universität Köln, Deutschland

In diesem Beitrag stellen wir eine Methode vor, um Informationen über Figurenrelationen in dramatischen Texten, die innerhalb der dramatis personae (Figurenverzeichnis) sprachlich kodiert sind, zu extrahieren und maschinenlesbar im TEI/XML vorzuhalten

Das Verfahren ist auch für in Zukunft digitalisierte Dramen anwendbar, und wird von uns als quelloffene Software zur Verfügung gestellt. Es ist vergleichsweise einfach auf neue Sprachstufen oder Genres anpassbar und liefert eine gute Vorlage. Eine Evaluation des Verfahrens erfolgt auf ungesehenen Testdaten. Außerdem veröffentlichen wir einen Datensatz mit extrahierten Figurenrelationen aus deutschsprachigen Dramen, die manuell validiert und korrigiert wurden. Diese Daten werden zur einfachen und breiten Nutzung im TEI-Format in das GerDraCor eingespeist. Schlussendlich beschreiben wir beispielhaft zwei Analyseszenarien in denen die Daten neue Einblicke bieten (können).

 
15:30 - 16:00Kaffeepause
 
15:30 - 16:00Chorprobe
Chair der Sitzung: Torsten Roeder, Deutsche Akademie der Naturforscher Leopoldina
H 7 
16:00 - 17:30Mitgliederversammung
Audimax 
16:30 - 18:00Stadtführung 1: "Stadtrundgang"
Rathausplatz, Paderborn (Treffpunkt) 
16:30 - 18:00Stadtführung 2: "Auf die leichte Tour"
Rathausplatz, Paderborn (Treffpunkt) 
16:30 - 18:00Stadtführung 3: "Literarischer Stadtrundgang"
Rathausplatz, Paderborn (Treffpunkt) 
Datum: Donnerstag, 05.03.2020
9:00 - 10:30Panel 3
C 2 
 

Maschinelles Lernen in den Geisteswissenschaften

Chair(s): Tobias Hodel (Universität Bern), Nasrin Saef (Ella Media GmbH), Christof Schöch (Universität Trier), Ulrike Henny-Krahmer (Universität Würzburg)

Vortragende: Nasrin Saef (Ella Media GmbH), Christof Schöch (Universität Trier), Ulrike Henny-Krahmer (Universität Würzburg), Tobias Hodel (Universität Bern)

Algorithmen, die auf maschinellem Lernen beruhen haben das Potential die geisteswissenschaftliche Forschungen grundlegend umzukrempeln. Machine learning vermag Abläufe, die nur schwierig regelbasiert werden können mit einer menschähnlichen Fähigkeit zu lösen. Gerade Probleme der Geisteswissenschaften, die sich nicht oder nur bedingt in richtig/falsch Kategorien einordnen lassen, eröffnet dies neue Möglichkeiten. Gleichzeitig bedarf der Einsatz der Methode einer Reflexion der Epistemologie, die den Algorithmen implizit oder explizit vorgegeben werden.

Der Ausgangspunkt des Panels sind unterschiedliche Anwendungen des maschinellen Lernens, wobei sowohl supervised als auch unsupervised Algorithmen hinsichtlich ihrem Potential und den damit verbundenen methodischen Überlegungen thematisiert werden.

Das Panel beleuchtet aus unterschiedlichen Perspektiven den Einsatz von Algorithmen des maschinellen Lernens, wobei von der Ingeneurin, über Anwendende und Theoretiker alle zu Wort kommen werden.

 
9:00 - 10:30V10: Netzwerkanalyse und Subgenres
Chair der Sitzung: Julia Nantke, Universität Hamburg
H 1 
 

Welche Beziehungen steuern das Briefkorrespondenznetzwerk der Reformatoren? Eine Netzwerkanalyse

Ramona Roller, Frank Schweitzer

ETH Zürich, Schweiz

Sozio-historische Netzwerke stellen eine unrepräsentative Stichprobe eines sozialen Systems dar, da Daten selektiv verwendet werden. Folglich sind Interpretationen der Netzwerkanalyse oftmals fehlerhaft. Um das globale, jedoch unbekannte Netzwerk vom observierten, unvollständigen Netzwerk zu rekonstruieren, untersuchen wir in diesem Beitrag die Antriebsfaktoren des observierten Netzwerks. Anhand eines Briefkorrespondenznetzwerks der Reformatoren aus dem 16. Jahrhundert quantifizieren wir, wie verschiedene soziale Beziehungen zwischen Reformatoren deren Briefkorrespondenz beeinflussen. Unsere Ergebnisse zeigen, dass Reformatoren Briefe verwenden um sehr kurze und sehr lange Distanzen zu überbrücken. Darüber hinaus steigern Reziprozität und die Unterstützung derselben religiösen Strömung die Briefanzahl. Diese Zusammenhänge sind wichtige Bausteine, um Sender und Empfänger fehlender Briefe zu identifizieren.



Netzwerkanalyse spielerisch vermitteln mit DraCor und forTEXT: Zur nicht-digitalen Dissemination einer digitalen Methode in Form des Kartenspiels „Dramenquartett"

Jan Horstmann1, Marie Flüh1, Mareike Schumacher1, Frank Fischer3, Peer Trilcke2, Jan Christoph Meister1

1Universität Hamburg, Deutschland; 2Universität Postdam, Deutschland; 3Higher School of Economics Moskau, Russland

Im Projekt forTEXT werden digitale Routinen, Ressourcen und Tools zur Texterforschung für die Vermittlung an traditioneller arbeitende Geisteswissenschaftlerïnnen niedrigschwellig aufbereitet. Das Portal bietet theoretische Einführungen in Methoden, praktische Lerneinheiten zum Selbstlernen, Lehrmaterialien für Universität und Schule sowie Video-Fallstudien und -Tutorials – unter anderem zur Methode der Netzwerkanalyse, zur Dramentextsammlung DraCor (Drama Corpora Project) und dem Netzwerkanalysetool ezlinavis. Das im Projekt DraCor entwickelte Dramenquartett kann dieses Disseminationsmodell produktiv erweitern, indem die digitale Methode der Netzwerkanalyse im nicht-digitalen Lernraum spielerisch erlernt werden kann, sodass (a) die Neugier auf die den Netzwerken zugrunde liegenden Annahmen und Techniken gesteigert und (b) Schwellenängsten durch eine zusätzliche Senkung der Schwelle begegnet wird. Das didaktische Potential eines spielerischen Zugangs wie diesem wird in universitären Seminaren praktisch ausgelotet und kritisch evaluiert.



Confounding variables in Sub-Genre classification: instructive problems

Fotis Jannidis1, Leonard Konle1, Peter Leinen2

1Universität Würzburg; 2Deutsche Nationalbibliothek

This paper started out as a report on the state of the art in text classification, but over time it became much more a reflection on the pitfalls in modeling genre using classification. The start of our research was motivated by the recent developments in text classification.

But two observations were irritating: First, we noticed that the classification results were improved when we included the stopwords. Usually removing stopwords improves text classification performance. As most stopwords are typical function words which are used in stylometric research, this indicated that authorship information was used in the classification. Secondly, we noticed strong fluctuations between cross-validation folds, which seemed to indicate a very uneven class distribution.

Because of these findings we started to create complex sampling experiments to determine influences of authorship, periodicals and publishers on sub-genre.

 
9:00 - 10:30V11: Innovationen in der Digitalen Edition
Chair der Sitzung: Ulrike Wuttke, Fachhochschule Potsdam
H 2 
 

DH’s Next Top-Model? Digitale Editionsentwicklung zwischen Best Practice und Innovation am Beispiel des „Corpus Masoreticum“

Clemens Liedtke

Hochschule für Jüdische Studien Heidelberg, Deutschland

Welche Konsequenzen hat das Einführen digitaler Prozesse in geisteswissenschaftliche Forschung auf Architektur und Design konkreter Projekte? Entlang des Spannungsverhältnisses zwischen standardisierten vs. innovativen Verfahren wird am Beispiel des DFG-geförderten Langzeit-Editionsprojektes „Corpus Masoreticum“, das in den Jüdischen Studien verortet ist und sich mit der Erforschung biblischer Metatexte anhand mittelalterlicher Handschriften des 12. und 13. Jahrhunderts befasst, diskutiert, wie diese Unterscheidung sowohl die Datenmodellierung von historischen Quellen als auch die Auswahl digitaler Technologien produktiv beeinflusst. Vor- und Nachteile verschiedener Erschliessungs- und Editionsmethoden (z.B.: linear/hierarchisches XML-Markup vs. "text as a graph") werden am Phänomen der sogenannten "Masora figurata" entwickelt und die methodische Umsetzung an einem konkreten Projektsetup vorgestellt.



Game On!

Torsten Roeder1, Klaus Rettinghaus2

1Berlin; 2Leipzig

Der Vortrag deckt eine Born-Digital-Ressource aus den 1980er und 1990er Jahren auf: Fachmagazine für die User- und Gamer-Community der späten 8-Bit-Ära wurden oft auf sogenannten “Diskmags” publiziert, deren Erhaltungszustand und Zugänglichkeit inzwischen mehr als mangelhaft ist. Dabei stellen diese Magazine eine wichtige kulturgeschichtliche Quelle dar, an der sich beispielsweise die Herausbildung einer Kritik und Ästhetik von Computerspielen beobachten ließe. Braucht es nun eine textkritische (digitale) Edition von Diskmags? Welche Rolle spielt dabei das Originalmedium, und welche Funktion(en) kann Emulation übernehmen? Anhand mehrerer Beispiele werden die Spezifika der Diskmags und die editionstechnischen Herausforderungen beleuchtet und zur Diskussion gestellt.



Spielräume modellieren. Eine digitale Edition von Giovanni Domenico Tiepolos Bildzyklus Divertimento per li Regazzi auf der Grundlage von CIDOC CRM

Rostislav Tumanov, Gabriel Viehhauser, Alina Feldmann, Barbara Koller

Universität Stuttgart, Deutschland

Der Beitrag stellt das Projekt einer digitalen Edition des Bildzyklus Divertimento per li Regazzi von Giovanni Domenico Tiepolo vor. Die einzelnen Blätter des Divertimento zeigen die aus der Commedia dell’Arte bekannte Figur des Pulcinella in unterschiedlichen Situationen, die sich zu einer Art Lebensgeschichte sortieren lassen. Doch wird die Erzähllogik des Bildzyklus immer wieder durch unterschiedliche Anordnungsmöglichkeiten, Querverbindungen und Widersprüche unterlaufen. Zur grundlegenden Strukturierung der Edition erscheint das Datenmodell des CIDOC-CRM besonders geeignet, da es nicht nur die nötige Standardisierung der Daten gewährleistet, sondern sich gerade aufgrund seiner Event-basierten Konzeption für die Aufbereitung des variablen narrativen Bildzyklus einsetzen lässt Der Beitrag stellt die im Projekt umgesetzte Modellierung vor und zeigt, wie sich durch eine solche Herangehenswiese neue Spielräume für die digitale Präsentation von Bildkunstwerken im Übergangsbereich von Bild und Narration eröffnen lassen.

 
9:00 - 10:30V12: Theorien der Textanalyse
Chair der Sitzung: Nanette Rißler-Pipka, Niedersächsische Staats- und Universitätsbibliothek Göttingen
H 3 
 

Textanalyse mit kombinierten Methoden – ein konzeptioneller Rahmen für reflektierte Arbeitspraktiken

Jonas Kuhn, Axel Pichler, Nils Reiter, Gabriel Viehhauser

Universität Stuttgart, Deutschland

Dieser Beitrag versucht, einen intensiven Austausch über einen geeigneten konzeptionellen Rahmen für eine kombiniert komputationell/geisteswissenschaftliche Arbeitspraxis (einen "mixed methods"-Ansatz) zu initiieren. Auf Grundlage der Erfahrungen aus dem Stuttgarter Zentrum für reflektierte Textanalyse (CRETA) heraus diskutieren wir vier Aspekte, die zentral sind für ein methodisch reflektiertes Vorgehen beim Einsatz von adaptierbaren datenorientierten Computermodellen in Verbindung mit Forschungsfragen aus einem geisteswissenschaftlichen Wissenskontext.



Computationelle Textanalyse als fünfdimensionales Problem

Evelyn Gius

Technische Universität Darmstadt, Deutschland

Im Vortrag wird ein auf fünf Aspekten basierendes Modell vorgestellt, anhand dessen die Komplexität von (literaturwissenschaftlichen) Textanalysezugängen in den Digital Humanities eingeschätzt werden kann. Das Modell kann für die Bewertung und Planung von Forschungsprozessen genutzt werden und wird mit konkreten Beispielen vorgestellt.



Anwendungen von DH-Methoden in der Erschließung und Digitalisierung von Kulturerbe. Ein Vorschlag zur Systematisierung

Lina Franken

Universität Hamburg, Deutschland

In der Erfassung und Erschließung von Kulturerbe werden Methoden der Digital Humanities bisher kaum genutzt. Der Beitrag systematisiert die Möglichkeiten und daraus entstehenden Synergieeffekte aufgrund von Projekterfahrungen in beiden Arbeitsbereichen. Potentiale werden insbesondere in der Unterstützung der Erschließung und Erforschung von Kulturerbe-Daten durch Maschine Learning-Verfahren aus den Digital Humanities gesehen. Durch Bildanalyse und in der Untersuchung der bereits bestehenden Metadaten können die in diversen Erfassungszuständen unveröffentlichten Daten einfacher erschlossen und der DH-Forschung zugänglich gemacht werden. Der Beitrag ist als Systematisierung zur weiteren Bearbeitung und Kollaboration zu verstehen, um die Öffnung von Erschließungssystemen und Methoden zu ermöglichen und gleichzeitig die zugehörigen Communities weiter miteinander zu vernetzen.

 
10:30 - 11:00Kaffeepause
 
11:00 - 12:30Panel 4
C 2 
 

Events: Modellierungen und Schnittstellen

Chair(s): Stephan Kurz (Österreichische Akademie der Wissenschaften, Österreich), Christiane Fritze (Österreichische Nationalbibliothek), Helmut W. Klug (Universität Graz, Zentrum für Informationsmodellierung), Christoph Steindl (Österreichische Nationalbibliothek)

Vortragende: Christiane Fritze (Österreichische Nationalbibliothek), Matthias Schlögl (Österreichische Akademie der Wissenschaften, Austrian Centre for Digital Humanities, dataforhistory.org), Sascha Grabsch (Telota/Berlin-Brandenburgische Akademie der Wissenschaften)

Einerseits sind Ereignisse im menschlichen Leben, und damit auch in dessen Dokumentation, allgegenwärtig. Andererseits gibt es in den Digital Humanities gerade für diesen zentralen Bereich Nachholbedarf sowohl betreffend die Modellierung und Kodierung von Ereignissen, als auch betreffend die Austauschbarkeit von Daten über Ereignisse, für die es weder Standards noch Normdatenquellen in breit akzeptierter Form gibt.

Die EinreicherInnen haben angesichts dessen eine Initiative unternommen, das Datenmodell von tei:event zu erweitern, ihm in Analogie zu den anderen Named Entities aus dem TEI-Modul ‘namesdates’ ein tei:eventName zwecks Referenzierung im tei:body zur Seite zu stellen und die Möglichkeiten des tei:listEvent-Wrapperelements zu ergänzen. Zusätzlich streben wir einen breiteren Austauschprozess mit anderen Domänen innerhalb der Digital Humanities an, welche ebenfalls mit Ereignissen zu tun haben. Das vorgeschlagene Panel versammelt Expertinnen und Experten zu einer offen angelegten Diskussion zur Modellierung von Ereignissen sowie zu Einsatzszenarien einer ‘eventSearch API’.

 
11:00 - 12:30V13: Text / Theorie in Vergangenheit und Zukunft
Chair der Sitzung: Alexander Czmiel, Berlin-Brandenburgische Akademie der Wissenschaften
H 1 
 

Positivismus der geistigen Gegenstände: Carnap und die Digital Humanities

Stefan Heßbrüggen-Walter

HSE University, Russland

Der Vorwurf des Positivismus an die Adresse der digitalen Geisteswissenschaften ist ein Gemeinplatz. Jedoch ist es nicht immer einfach zu verstehen, was damit gemeint sei. In meinem Beitrag entwickele ich im Anschluss an Carnaps "Der logische Aufbau der Welt" (1928) ein positivistisches Verständnis des Gegenstandes der digitalen Geisteswissenschaften und zeige, wie ein solches Verständnis der Theoriebildung innerhalb der DH neue Spielräume eröffnen kann.



"As a Hobby at First" – Künstlerische Produktion als Modellierung

Toni Bernhart

Universität Stuttgart, Deutschland

Modellierung und Interpretation sind zentrale Arbeitsfelder der Digital Humanities. Modellierung wird gegenwärtig jedoch vorwiegend theoretisch verstanden und dient der Analyse. Ein anderer Aspekt der Modellierung ist die künstlerische Produktion, die derzeit aber kaum als genuines Arbeitsfeld der Digital Humanities gilt. Anders verhielt es sich in der Kybernetik der späten 1950er und 1960er Jahre. Modellierung wurde ganz selbstverständlich auch als künstlerische Produktion verstanden. Beispielhaft sind der Mathematiker Theo Lutz (1932–2010) und der Physiker Wilhelm Fucks (1902-1990). Lutz' "Stochastische Texte" (1959) waren die ersten mit einer programmierten Rechenmaschine generierten Texte in deutscher Sprache. Fucks, dessen kompositorisches Schaffen bislang unbeachtet geblieben ist, gelang Ende der 1960er Jahre der Anschluss an exponierte Vertreter der Neuen Musik wie Iannis Xenakis, Hermann Scherchen und John Cage. Der Vortrag wird anhand von bislang unveröffentlichtem Archivmaterial das künstlerische Schaffen von Lutz und Fucks veranschaulichen und nach den Unterschieden zwischen historischer Kybernetik und digitaler Medienkunst der Gegenwart fragen.



Wie wir lesen könnten. Streamreader<sub>PS</sub> 0.1

Patrick Sahle

Bergische Universität Wuppertal, Deutschland

Der Vortrag stellt kein Projekt, sondern die Ausgangspunkte und Grundüberlegungen für ein Forschungsprogramm vor. Dabei geht es um die Auseinandersetzung mit Textualität und Textmedialität auf der Basis von Gedankenexperimenten und experimenteller und explorativer Prototypenentwicklung. Dazu wird die Behauptung, Text sei essentiell ein "stream of tokens" ernst genommen und über konsequente Medialisierungsformen bzw. Anwendungen in digitalen Umgebungen nachgedacht. Das Ergebnis sind "streamreader", die Text als einzelne laufende Schriftzeile präsentieren und lesbar machen. Dies wiederum erlaubt die Reflexion von Textualität im Allgemeinen und von einzelnen Textfeatures und medialen Funktionen im Besonderen. Jenseits der intermedialen Reproduktion von Text entstehen Spielräume für das Ausloten neuer Anwendungsmöglichkeiten. Damit wird ein neues Textmedium erfunden, das nicht nur seine Form, sondern auch seine Funktion erst noch finden muss.

 
11:00 - 12:30V2: Neue Wege für Repositorien
Chair der Sitzung: Lisa Dieckmann, Universität zu Köln
H 2 
 

Geschichte aus erster Hand – Der Aufbau eines nationalen Zeitungsportals unter Berücksichtigung der Bedürfnisse verschiedener Nutzergruppen

Lisa Landes, Patrick Dinger

Deutsche Nationalbibliothek, Deutschland

Die Digitalisierung historischer Zeitungen erfreut sich eines zunehmenden Interesses der Wissenschaft. Während mit ANNO, Delpher oder dem British Newspaper Archive in verschiedenen europäischen Ländern nationale Portale als Einstiegspunkte für die Recherche zu historischen Zeitungen etabliert wurden, befindet sich das Deutsche Zeitungsportal erst im Aufbau. Das von der Deutschen Forschungsgemeinschaft (DFG) geförderte Deutsche Zeitungsportal wird nicht nur die Bestände regionaler Portale oder die digitalen Sammlungen einzelner Bibliotheken vereinen, sondern auf der technischen Grundlage der Deutschen Digitalen Bibliothek (DDB) eine umfassende Volltextsuche in den Zeitungsausgaben ermöglichen. Auf Basis der im Förderantrag beschriebenen Anforderungen der Wissenschaft und des Austausches mit Forschenden in Workshops sowie einer modernen Nutzerforschung wird bis Anfang des Jahres 2020 ein Prototyp des Deutschen Zeitungsportals entwickelt. Im Rahmen dieses Vortrags sollen die gewonnen Eindrücke aus der Nutzerforschung und erste Ergebnisse der Entwicklung präsentiert sowie die wissenschaftlichen Anforderungen an ein Deutsches Zeitungsportal diskutiert werden.



Bildrepositorien und Forschung mit digitalen Bildern im Bereich der Kunstgeschichte

Cindy Kröber1, Sander Münster2, Heike Messemer3

1TU Dresden, Deutschland; 2Friedrich-Schiller-Universität Jena, Deutschland; 3Universität Würzburg, Deutschland

Bilder sind eine der Hauptquellen für wissenschaftliche Arbeit im Bereich der Kunstgeschichte. Darüber hinaus stellen Bilder ein wertvolles Werkzeug für die wissenschaftliche Kommunikation und Publikation in der kunsthistorischen Forschung dar. Frühere Studien haben gezeigt, dass die Verfügbarkeit digitaler Bilder KunsthistorikerInnen vor Probleme beim Zugriff und der Interaktion mit ihnen stellt; diese Schwierigkeiten können Fragen zu Auffindbarkeit, Urheberrecht, Metadaten zum Material, geringe Bildqualität oder digitales Design betreffen und das Potenzial digitaler Bilder erheblich einschränken. Eine Nutzerstudie mit Studierenden der Kunstgeschichte soll zeigen, ob diese Themen für eine neue Generation, die mit digitalen Technologien aufwächst und im Privaten mehr denn je damit konfrontiert ist, weiterhin Relevanz besitzen. Weiter sollen Empfehlungen für die Entwicklung neuer Technologien aus den Nutzungsbedarfen der Studierenden abgeleitet werden.



Die Kanonfrage 2.0

Corinna Dziudzia1, Mark Hall2

1KU Eichstätt - Ingolstadt; 2The Open University

Im Rahmen der Kanondebatte seit den 1970er Jahren wird kritisch hinterfragt, wessen Bücher eigentlich publiziert, rezensiert und gelesen werden. Diese Frage muss nun aktualisiert werden: Wessen Texte werden eigentlich digitalisiert? Auffällig arbeitet die digitale Forschung mit Texten eines recht kleinen und männlichen Kanons. Diesem Umstand soll kritisch mit dem Vorschlag eines Online-Portals begegnet werden, das es sich zur Aufgabe gemacht hat, die Lücke in der Digitalisierung weiblichen Schreibens aufzuzeigen, verfügbare Texte sichtbar zu machen und Autorinnen auch für eine breitere Lese-Öffentlichkeit an die Oberfläche zu bringen.

 
11:00 - 12:30V15: Optical Character Recognition
Chair der Sitzung: Alexander Dunst, Universität Paderborn
H 3 
 

The rapid rise of Fraktur

Nikolaus Weichselbaumer1, Mathias Seuret2, Saskia Limbach1, Lena Hinrichsen1, Andreas Maier2, Vincent Christlein2

1JGU Mainz, Deutschland; 2FAU Erlangen, Deutschland

This paper charts the rise of Fraktur as the leading font for printed texts in German by analysing a large dataset of digitised books from the Bavarian State Library using a new tool to autmatically recognise the main font. This is the first study showing statistical data for font usage in any period. It is as much an attempt at furthering the research on Fraktur as it is a demonstration of this method.



Volltexttransformation frühneuzeitlicher Drucke – Ergebnisse und Perspektiven des OCR-D-Projekts

Matthias Boenig2, Elisabeth Engl1, Konstantin Baierer3, Volker Hartmann4, Clemens Neudecker3

1Herzog-August-Bibliothek Wolfenbüttel, Deutschland; 2Berlin-Brandenburgische Akademie der Wissenschaften, Deutschland; 3Staatsbibliothek zu Berlin - Preußischer Kulturbesitz, Deutschland; 4Karlsruher Institut für Technologie

Das schriftliche Kulturgut des deutschsprachigen Raums aus dem 16.–18. Jahrhundert wird schon seit Jahrzehnten in den Verzeichnissen der im deutschen Sprachraum erschienenen Drucke (VD) zusammengetragen. Ein signifikanter Anteil der verzeichneten Titel wurde der Forschung bereits durch die Bereitstellung von Volldigitalisaten oder einzelnen Schlüsselseiten leichter zugänglich gemacht. Das DFG-Projekt OCR-D nimmt sich seit Oktober 2015 im Rahmen der Koordinierten Förderinitiative zur Weiterentwicklung von Verfahren für die Optical-Character-Recognition (OCR) dieser Aufgabe an, indem es eine modular aufgebaute Open Source Software entwickelt, deren Werkzeuge alle für die Texterkennung nötigen Schritte abdecken sollen. Der modulare Ansatz ermöglicht es, die technischen Abläufe und Parameter der Texterkennung stets nachzuvollziehen und maßgeschneiderte Workflows zu definieren, die jeweils optimale Ergebnisse für spezifische Titel aus dem Zeitraum des 16. bis frühen 20. Jahrhunderts liefert. Im Vortrag wird in vier Thesen eine notwendige Begrenzung der Spielräume vorgenommen. Ziel ist es, den Forderungen der DH nach Volltexten gerecht zu werden.



Best-practices zur Erkennung alter Drucke und Handschriften. Die Nutzung von Transkribus large- und small-scale

Tobias Hodel

Universität Bern, Schweiz

Dank der Verbesserung von Handschriftenerkennung können sowohl alte Drucke als auch handschriftliche Dokumente mit guter Qualität erkannt werden. Je nach gewünschtem Ziel unterscheidet sich jedoch die Vorgehensweise bei der Aufbereitung der Dokumente. An unterschiedlichen Stellen muss mehr oder weniger Aufwand betrieben werden.

Anhand von drei typischen Zielen werden best-practice Workflows aufgezeigt, damit der Ressourceneinsatz passgenau geplant werden kann.

Im Rahmen des Vortrags wird gleichzeitig aufgezeigt, inwiefern selbsttrainierte Modelle zur Erkennung von Text evaluiert werden können.

Der Vortrag basiert auf der Nutzung der Software Transkribus und Algorithmen, die im Rahmen von Projekt READ entwickelt wurden

 
12:30 - 13:15Chorprobe
Chair der Sitzung: Torsten Roeder, Deutsche Akademie der Naturforscher Leopoldina
H 1 
12:30 - 14:00Mittagspause
 
12:30 - 14:00AK Digitale Kunstgeschichte
H 5 
14:00 - 15:00Posterslam
Chair der Sitzung: Joachim Veit, Universität Paderborn
Audimax 
15:00 - 16:00AG Digitales Museum
H 4 
15:00 - 16:00AG Referenzcurriculum Digital Humanities
H 5 
15:00 - 17:00Postersession
Audimax 
15:30 - 17:00AG Digitale 3D-Rekonstruktion
H 6 
17:00 - 18:00Event Physik Show
Audimax 
18:00 - 19:00Pause & Bus-Transfer zur Benteler-Arena
 
18:15 - 19:00Besichtigung der Benteler-Arena
Benteler-Arena 
19:00 - 21:00Conference Dinner
Benteler-Arena 
Datum: Freitag, 06.03.2020
9:00 - 10:30Panel 5
C 2 
 

What’s in the news? (Erfolgs-)Rezepte für das wissenschaftliche Arbeiten mit digitalisierten Zeitungen

Chair(s): Clemens Neudecker (Staatsbibliothek zu Berlin – Preußischer Kulturbesitz/Europeana Newspapers)

Vortragende: Jana Keck (Universität Stuttgart), Estelle Bunout (Centre for Contemporary and Digital History (C2DH) Luxembourg University), Marten Düring (Centre for Contemporary and Digital History (C2DH) Luxembourg University), Torsten Roeder (Leopoldina – Nationale Akademie der Wissenschaften), Sarah Oberbichler (Universität Innsbruck), Lino Wehrheim (Universität Regensburg), Bernhard Liebl (Universität Leipzig)

Die Massendigitalisierung historischer Zeitungen eröffnet nicht nur ein großes Repertoire an Forschungsdaten, sondern auch an organisatorischen, methodischen und operativen Herausforderungen. Dieses Panel bringt Wissenschaftler*innen aus fünf nationalen und internationalen Forschungsprojekten zu digitalisierten historischen Zeitungen zusammen, um Projekte, Methoden, Workflows und Erfahrungen zu teilen und zu kontrastieren. Die Beiträge geben Einblicke in die Forschungspraxis mit digitalen Zeitungssammlungen unterschiedlicher Forschungsdisziplinen und kooperierenden Bibliotheken und beleuchten dabei die verschiedenen Aspekte wie die Gestaltung der Korpora und deren Heterogenität, die Konzeption von Oberflächen und Interaktionen mit den Sammlungen bis hin zur Anwendung von Forschungsfragen der Literatur-, Kultur- und Geschichtswissenschaft. Dieses Panel öffnet ein Diskussionsforum für die digitale Quellen- und Methodenkritik zum wissenschaftlichen Arbeiten mit digitalisierten Zeitungen in ihrer Vielfalt, um über das Spektrum von Forschungsmöglichkeiten und damit verbundenen Workflows und deren Bestandteile zu diskutieren.

 
9:00 - 10:30V16: Texterschließung
Chair der Sitzung: Georg Vogeler, Universität Graz
H 1 
 

Die Digitale Edition der Protokolle des Bayerischen Ministerrats – ein Erfahrungsbericht

Maximilian Schrott, Matthias Reinert

Historische Kommission bei der Bayerischen Akademie der Wissenschaften, Deutschland

Mit dem neunten Band der Edition „Protokolle des Bayerischen Ministerrats 1945-1962“ beschritt die Historische Kommission bei der Bayerischen Akademie der Wissenschaft neue Pfade. Erstmals versuchte sie die Erstellung einer Edition auf TEI-XML-Basis. Ziel war es sowohl einen gedruckten Band, als auch ein funktionsstarke digitale Version möglichst nahtlos aus denselben Dokumenten heraus zu erstellen. Gleichzeitig wollte man es dem Bearbeiter mittels einer eigens im Oxygen XML Editor angelegten Arbeitsumgebung ermöglichen, seine bisherige Arbeitsweise weitgehend unverändert und ohne Voraussetzung von XML-Kenntnissen. Die Drucklegung des Bandes konnte im Sommer 2019 erfolgreich abgeschlossen werden. Der Vortrag stellt das Projekt vor, beschreibt die Entwicklung des neuen Editionskonzepts, zeigt die Arbeitsumgebung und berichtet von den Herausforderungen und Erkenntnissen, die sich im Projektverlauf ergaben.



Syntaktische Profile für Interpretationen jenseits der Textoberfläche

Melanie Andresen1, Anke Begerow2, Lina Franken1, Uta Gaidys2, Gertraud Koch1, Heike Zinsmeister1

1Universität Hamburg, Deutschland; 2Hochschule für Angewandte Wissenschaften Hamburg

Viele Verfahren des Text Mining und Distant Reading beschränken sich auf eine wortbasierte Auswertung von Texten. Auch wenn auf Basis der Wortformen und ihrer linearen Abfolge bereits neue Perspektiven auf Texte gewonnen werden (z. B. mittels der Voyant Tools), schöpfen diese Methoden das Potential von Texten bei Weitem nicht aus. In diesem Beitrag vergleichen wir zwei Ansätze zur Berechnung von Kollokationen, einen oberflächenorientierten Ansatz und einen auf Dependenzannotationen basierten. An zwei Fallstudien aus den Fächern Kulturanthropologie und Pflegewissenschaft wird demonstriert, wie die beiden Ansätze eine qualitative Interpretation von Textdaten in Hinblick auf gesellschaftliche bzw. soziale Phänomene unterstützen können. Die Erstellung eines eindeutigen Goldstandards, der eine formale Evaluation erlauben würde, ist bei dieser Art Fragestellung nicht möglich.

 
9:00 - 10:30V17: Linked Open Data 1
Chair der Sitzung: Joachim Veit, Universität Paderborn
H 2 
 

(Re-)Collecting Theatre History: Wissensdinge, Biographien, Wirkungsräume

Andreas Mertgens, Enes Türkoğlu, Nora Probst

Universität zu Köln, Deutschland

Im Projekt (Re-)Collecting Theatre History werden seit März 2017 in Kooperation mit der Theaterwissenschaftlichen Sammlung der Universität zu Köln und dem Institut für Theaterwissenschaft der Freien Universität Berlin ausgewählte Nachlässe der Theatergeschichte des 20. Jahrhunderts digital zusammengeführt. Mit dem Cologne Center for eHumanities als technischem Partner werden diese Nachlässe digitalisiert, Metadaten erfasst und eine Plattform entwickelt, die nicht nur objektbezogene Datenkontexte sondern auch prosopographische und theatergeschichtliche Forschungsfragen berücksichtigt. Hierfür werden aus den erfassten Objektdaten Datensätze extrahiert, die unterschiedlich modelliert und definiert sind - nämlich als Akteure oder Ereignisse. Das Projekt untersucht so das Spannungsverhältnis von Biographie und Geschichte, um aus den biographischen Koordinaten, die durch die Objekte ermittelt werden, eine Theatergeschichte zu erzählen, die quer zu den historisch anerkannten Epochengrenzen verläuft. Auf diese Weise werden die Übergänge zwischen zentralen Epochen der Theater- und Kulturgeschichte der Moderne einer fachwissenschaftlichen Neukonfiguration unterzogen.



Automatische Extraktion und semantische Modellierung der Einträge einer Bibliographie französischsprachiger Romane

Andreas Lüschow

Universität Trier, Deutschland

Elektronische Dokumente und Daten lassen sich aufgrund ihrer maschinenlesbaren Form leicht mit automatischen Methoden der Informationsextraktion erschließen und analysieren. Im Kontext des Semantic Web führt eine Verlinkung unterschiedlicher Datenbestände außerdem zu einer Anreicherung und damit deutlich erhöhten Sicht- und Nutzbarkeit dieser Daten. Unzählige Dokumente liegen jedoch ausschließlich in gedruckter Form vor. In der vorliegenden Arbeit wurden die Einträge einer Bibliographie französischsprachiger Romane der zweiten Hälfte des 18. Jahrhunderts mithilfe verschiedener Ontologien (FRBR, DCTerms, PRISM, SPAR) und Standards modelliert, um durch Anwendung eines Verfahrens der Informationsextraktion (Conditional Random Fields, CRF) die dort enthaltenen bibliographischen Daten in eine RDF-Repräsentation zu überführen. Die durchschnittliche Extraktionsgenauigkeit der sechs erstellten Modelle erreichte dabei rund 96 %. Zusätzlich wurden die Daten durch Verlinkung mit der Virtual International Authority File (VIAF) angereichert. Schwierigkeiten bereiten vor allem spezielle Inhalte, die mit herkömmlichen Ontologien nicht abgebildet werden können, sowie die teilweise fehlerhafte Datengrundlage.



Das Werk bildender Künstler*innen im Kontext – Digitale Werkverzeichnisse im semantischen Netz

Maria Effinger, Nicole Sobriel

Universitätsbibliothek Heidelberg, Deutschland

Im Rahmen des DFG-Programms „Fachinformationsdienste für die Wissenschaft“ entwickeln die Universitätsbibliothek Heidelberg und die SLUB Dresden mit dem Fachportal arthistoricum.net ein maßgeschneidertes Angebot für die kunsthistorische Fachcommunity. Die Universitätsbibliothek Heidelberg zeichnet dabei u.a. für den Bereich des elektronischen Publizierens im Open Access verantwortlich, ihr aktueller Fokus liegt dabei auf kollaborativen, mit Linked-Data-Technologien realisierten, dynamischen Publikationsmöglichkeiten und deren Weiterentwicklung. Der Vortrag soll zeigen, welche unterschiedlichen Lösungsansätze für die Bereitstellung digitaler Werkverzeichnisse im Kontext von arthistoricum.net aktuell an der UB Heidelberg erarbeitet und zum Teil auch schon umgesetzt werden.

Die webbasierte und kollaborative Arbeits- und Publikationsweise sowie die multiplen Verbindungen von Bild und Text schaffen gegenüber bisherigen Printpublikationen neue Möglichkeiten der Visualisierung und Verbreitung stets aktueller Forschungsergebnisse. So können die zwischen den in der Datenbank erfassten Artefakten oder Personen bestehenden komplexen, geographischen, überlieferungskontextuellen, sprachlichen, inhaltlichen, ikonographischen oder editorischen Bezüge komfortabel recherchiert, visualisiert und dynamisch ausgebaut werden.

 
10:30 - 11:00Kaffeepause
 
11:00 - 12:30Panel 6
Chair der Sitzung: Evelyn Gius, Technische Universität Darmstadt
C 2 
 

Intertextualität in literarischen Texten und darüber hinaus

Chair(s): Julia Nantke (Universität Hamburg), Manuel Burghardt (Universität Leipzig), Nils Reiter (Universität zu Köln/Universität Stuttgart), Regula Hohl Trillini (Universität Basel)

Vortragende: Ben Sulzbacher (Bergische Universität Wuppertal), Johannes Molz (Ludwig-Maximilians-Universität München), Axel Pichler (Universität Stuttgart)

Im Panel werden verschiedene Perspektiven auf Intertextualität diskutiert und verglichen. Die diskutierten Anwendungs- und Untersuchungsfälle kommen aus Literaturwissenschaft und Philosophie, und ihre digital-formalen Aspekte reichen von Modellierung durch Annotation, über quantitative Analysen von Textkorpora bis hin zu Visualisierung und Benutzerschnittstellen. Ziel des Panels ist neben der Darstellung von Einzelprojekten die sich mit dem gleichen Phänomen beschäftigen, die Offenlegung von Schnittstellen und Gemeinsamkeiten, die die weitere Arbeit voranbringen.

 
11:00 - 12:30V18: Sprachanalyse und Übersetzung
Chair der Sitzung: Jürgen Hermes, Universität zu Köln
H 1 
 

m*w Figurengender zwischen Stereotypisierung und literarischen und theoretischen Spielräumen Genderstereotype und -bewertungen in der Literatur des 19. Jahrhunderts

Mareike Schumacher, Marie Flüh

University of Hamburg, Deutschland

Während in den Digital Humanities bereits erste korpusbasierte Analysen von Figurengender in der Literatur vorgelegt wurden (Underwood 2019: 111ff), wird in den Kulturwissenschaften zu diesem Thema selten korpusbasiert gearbeitet. Stattdessen sind Theorien zur Genderthematik häufig philosophisch-soziologisch (z.B. bei Beauvoir oder Bourdieu), diskurstheoretisch (z.B. Foucault) oder dekonstruktivistisch (z.B. Butler) motiviert. Die Lücke zwischen einer an technischen Methoden ausgerichteten Modellierung und der theoretischen Betrachtung der Genderthematik schließen wir mit dem Projekt m*w, dessen Pilotstudie wir hier vorstellen. Das Projekt wurde im August 2019 als Beitrag für den CorpusContest des Heidelberger InFoDiTex-Netzwerkes und des DiscourseLab initiiert. Mit einem theoriegeleiteten Digital-Humanities-Ansatz zeigen wir, dass kulturwissenschaftliche Theorien so operationalisiert werden können, dass sie digital auf ein literarisches Korpus anwendbar sind. Die Textgrundlage der Pilotstudie sind ausgewählte Erzähltexte des Deutschen Novellenschatzes (Paul Heyse und Hermann Kurz 1871–1876). In unserem Beitrag stellen wir erste signifikante inhaltliche Ergebnisse der Pilotstudie vor.



Spiele im Spiel – Datenbankbasiertes Arbeiten zur interaktionale Sprache im Dramenwerk von Andreas Gryphius

Lisa Eggert1, Melissa Müller2

1Universität Duisburg-Essen, Deutschland; 2Universität Hamburg

Die Bühnensprache des Barocktheaters – insbesondere der Trauerspiele – ist normiert. Der Alexandriner als Sprechvers mit seiner festen Anzahl an Hebungen und dem Paarreim scheint trotz der dialogischen Struktur der Texte kaum Spielräume für eine Mündlichkeit im heutigen Sinne zu lassen. Die gebundene und dadurch disziplinierte Sprache der Dramen steht in Spannung zu gängigen Vorstellungen von Mündlichkeit, gilt diese doch als spontan, wenig regelhaft und in der Tendenz individuell statt standardisiert.

Welche Spielräume lässt die Versifizierung dennoch zu? Welche Formen konzeptioneller Mündlichkeit lassen sich in barocken Dramentexten finden? Lassen sich Korrelationen zwischen linguistischen Phänomenen interaktionaler Sprache und den verschiedenen Möglichkeiten der Versgestaltung feststellen? Und welche Spielräume der Interpretation erlaubt dabei die digitale Annotation der Dramentexte?



Sprachvarietätenabhängige Terminologie in der neuronalen maschinellen Übersetzung: Eine Analyse in der Sprachrichtung Englisch-Deutsch mit Schwerpunkt auf der österreichischen Varietät der deutschen Sprache

Barbara Heinisch

Universität Wien, Österreich

Maschinelle Übersetzung hat in den vergangenen Jahren große Fortschritte gemacht. Für das Training eines neuronalen maschinellen Übersetzungssystems sind große Mengen an (qualitativ hochwertigen) bilingualen Sprachressourcen erforderlich. Neben der Anpassung eines maschinellen Übersetzungssystems an ein Fachgebiet und die zugehörige Terminologie, spielt auch die Sprachvarietät eine entscheidende Rolle. Ausgehend von der Hypothese, dass (generische) maschinelle Übersetzungssysteme überwiegend die deutsche Standardvarietät der deutschen Sprache als Übersetzungsergebnis für Terminologie ausgeben, wurde eine Analyse in der Sprachrichtung Englisch-Deutsch mit drei (frei) verfügbaren neuronalen maschinellen Übersetzungssystemen mit Terminologie aus den Domänen Kulinarik, Rechts- und Verwaltungssprache durchgeführt. Es wurde ein Überhang an standardvarietätenabhängiger Terminologie, die der deutschen Varietät des Deutschen zugeordnet werden kann, festgestellt. Durch die Auswahl und die Menge der zur Verfügung stehenden Sprachressourcen für das Training von maschinellen Übersetzungssystemen kann es dazu kommen, dass die sprachliche Vielfalt eingeschränkt wird. Für die digitalen Geisteswissenschaften erlauben diese Ergebnisse eine Reflexion über die Ergebnisse von maschineller Übersetzung.

 
11:00 - 12:30V19: Linked Open Data 2
Chair der Sitzung: Jörg Wettlaufer, Akademie der Wissenschaften zu Göttingen
H 2 
 

Theatre-Tool: Erschließung, Verknüpfung und Web-Präsentation von THeater- und Musikbeständen mit unterschiedlichen Quellentypen

Irmlind Capelle, Kristina Richts, Elena Schilke

Universität Paderborn, Deutschland

Das sogenannte „Detmolder Hoftheater-Projekt“ hat im Laufe der letzten fünf Jahre den überlieferten Musikalienbestand des Detmolder Hoftheaters aus der Zeit von 1825–1875 einschließlich der erhaltenen Aktenmaterialien erschlossen bzw. übertragen und mit einer eigenen Software in einem Portal präsentiert (www.hoftheater-detmold.de). Die dabei eingesetzte Software „Theatre-Tool“ wurde ausdrücklich so konzipiert, dass sie auf andere ähnliche Bestände übertragbar ist. Dieser Vortrag möchte die bisherigen Arbeitsergebnisse des Projekts zusammenfassen und die Erschließungsgrundsätze und den Aufbau und die Anforderungen der Software erläutern. Dabei werden auch die Möglichkeiten und Probleme der Übertragbarkeit und der Zusammenarbeit mit anderen bestehenden und neuen Katalogisierungsprojekten angesprochen.



Erzählerische Spielräume. Medienübergreifende Erforschung von Narrativen im Mittelalter mit ONAMA

Isabella Nicka, Peter Hinkelmanns, Miriam Landkammer, Manuel Schwembacher, Katharina Zeppezauer-Wachauer

Interdisziplinäres Zentrum für Mittelalter und Frühneuzeit, Universität Salzburg

Im Projekt ONAMA – Ontology of the Narratives of the Middle Ages – wird ein Modell für eine medienübergreifende Beschreibung von Handlungen, Aktanten, Settings und zeitlichen Strukturen entwickelt. Die Ontologie auf der Basis der Web Ontology Language (OWL) bildet die Grundlage dafür, Narrative vergleichen und damit Muster und Besonderheiten in deren Aufbau und Zusammensetzung erkennen zu können. Als neues digitales Werkzeug für die Mediävistik fördert ONAMA die Überwindung althergebrachter und immer noch weit verbreiteter fachlicher Grenzen zwischen bildlicher und textlicher Überlieferung und ermöglicht interdisziplinäre sowie intermediale Forschungen.

ONAMA stützt sich dabei auf zwei Langzeitprojekte der Digital Humanities: Die Mittelhochdeutsche Begriffsdatenbank (MHDBDB, Universität Salzburg) und die Bilddatenbank REALonline des Instituts für Realienkunde des Mittelalters und der frühen Neuzeit in Krems (Universität Salzburg).



Unsichtbares sichtbar machen - semantische Modellierung interpretativer Vorgänge am Beispiel der historischen Bestandsaufnahme der Brandenburgisch-Preußischen Kunstkammern

Sarah Wagner

Humboldt-Universität zu Berlin, Deutschland

Die Analyse historischer Quellen stellt die Geisteswissenschaften stets vor die Herausforderung, einerseits mit ihrer Lückenhaftigkeit, Mehrdeutigkeit und Unschärfe umzugehen, gleichzeitig die eigenen Interpretation bzw. Auslegung der Quellen kritisch zu hinterfragen, aber auch transparent zu machen.

Für die semantische Erschließung von Forschungsdaten müssen diese Umstände sowie die Anforderungen geisteswissenschaftlicher Analysemethoden berücksichtigt werden, wenn es um die Entwicklung von auf die Projektbedürfnisse zugeschnittenen Datenmodellen geht.

Am Beispiel der historischen Bestandsaufnahme der Brandenburgisch-Preußischen Kunstkammern sollen Anforderungen an ein solches Datenmodell vorgestellt und erste Ansätze skizziert werden.

 
12:30 - 13:15Chorprobe
Chair der Sitzung: Torsten Roeder, Deutsche Akademie der Naturforscher Leopoldina
H 1 
12:30 - 14:00Mittagspause
 
14:00 - 15:30Tagungsabschluss mit Keynote
Chair der Sitzung: Christof Schöch, Universität Trier
Audimax 
16:00 - 17:30Stadtführung 1: "Stadtrundgang"
Rathausplatz, Paderborn (Treffpunkt) 
16:00 - 17:30Stadtführung 2: "Auf die leichte Tour"
Rathausplatz, Paderborn (Treffpunkt) 
16:00 - 17:30Stadtführung 3: "Literarischer Stadtrundgang"
Rathausplatz, Paderborn (Treffpunkt) 

 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: DHd-Tagung 2020
Conference Software - ConfTool Pro 2.6.132
© 2001 - 2020 by Dr. H. Weinreich, Hamburg, Germany