Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
 
Sitzungsübersicht
Datum: Donnerstag, 05.03.2020
9:00 - 10:30Panel 3
C 2 
 

Maschinelles Lernen in den Geisteswissenschaften

Chair(s): Tobias Hodel (Universität Bern), Nasrin Saef (Ella Media GmbH), Christof Schöch (Universität Trier), Ulrike Henny-Krahmer (Universität Würzburg)

Vortragende: Nasrin Saef (Ella Media GmbH), Christof Schöch (Universität Trier), Ulrike Henny-Krahmer (Universität Würzburg), Tobias Hodel (Universität Bern)

Algorithmen, die auf maschinellem Lernen beruhen haben das Potential die geisteswissenschaftliche Forschungen grundlegend umzukrempeln. Machine learning vermag Abläufe, die nur schwierig regelbasiert werden können mit einer menschähnlichen Fähigkeit zu lösen. Gerade Probleme der Geisteswissenschaften, die sich nicht oder nur bedingt in richtig/falsch Kategorien einordnen lassen, eröffnet dies neue Möglichkeiten. Gleichzeitig bedarf der Einsatz der Methode einer Reflexion der Epistemologie, die den Algorithmen implizit oder explizit vorgegeben werden.

Der Ausgangspunkt des Panels sind unterschiedliche Anwendungen des maschinellen Lernens, wobei sowohl supervised als auch unsupervised Algorithmen hinsichtlich ihrem Potential und den damit verbundenen methodischen Überlegungen thematisiert werden.

Das Panel beleuchtet aus unterschiedlichen Perspektiven den Einsatz von Algorithmen des maschinellen Lernens, wobei von der Ingeneurin, über Anwendende und Theoretiker alle zu Wort kommen werden.

 
9:00 - 10:30V10: Netzwerkanalyse und Subgenres
Chair der Sitzung: Julia Nantke, Universität Hamburg
H 1 
 

Welche Beziehungen steuern das Briefkorrespondenznetzwerk der Reformatoren? Eine Netzwerkanalyse

Ramona Roller, Frank Schweitzer

ETH Zürich, Schweiz

Sozio-historische Netzwerke stellen eine unrepräsentative Stichprobe eines sozialen Systems dar, da Daten selektiv verwendet werden. Folglich sind Interpretationen der Netzwerkanalyse oftmals fehlerhaft. Um das globale, jedoch unbekannte Netzwerk vom observierten, unvollständigen Netzwerk zu rekonstruieren, untersuchen wir in diesem Beitrag die Antriebsfaktoren des observierten Netzwerks. Anhand eines Briefkorrespondenznetzwerks der Reformatoren aus dem 16. Jahrhundert quantifizieren wir, wie verschiedene soziale Beziehungen zwischen Reformatoren deren Briefkorrespondenz beeinflussen. Unsere Ergebnisse zeigen, dass Reformatoren Briefe verwenden um sehr kurze und sehr lange Distanzen zu überbrücken. Darüber hinaus steigern Reziprozität und die Unterstützung derselben religiösen Strömung die Briefanzahl. Diese Zusammenhänge sind wichtige Bausteine, um Sender und Empfänger fehlender Briefe zu identifizieren.



Netzwerkanalyse spielerisch vermitteln mit DraCor und forTEXT: Zur nicht-digitalen Dissemination einer digitalen Methode in Form des Kartenspiels „Dramenquartett"

Jan Horstmann1, Marie Flüh1, Mareike Schumacher1, Frank Fischer3, Peer Trilcke2, Jan Christoph Meister1

1Universität Hamburg, Deutschland; 2Universität Postdam, Deutschland; 3Higher School of Economics Moskau, Russland

Im Projekt forTEXT werden digitale Routinen, Ressourcen und Tools zur Texterforschung für die Vermittlung an traditioneller arbeitende Geisteswissenschaftlerïnnen niedrigschwellig aufbereitet. Das Portal bietet theoretische Einführungen in Methoden, praktische Lerneinheiten zum Selbstlernen, Lehrmaterialien für Universität und Schule sowie Video-Fallstudien und -Tutorials – unter anderem zur Methode der Netzwerkanalyse, zur Dramentextsammlung DraCor (Drama Corpora Project) und dem Netzwerkanalysetool ezlinavis. Das im Projekt DraCor entwickelte Dramenquartett kann dieses Disseminationsmodell produktiv erweitern, indem die digitale Methode der Netzwerkanalyse im nicht-digitalen Lernraum spielerisch erlernt werden kann, sodass (a) die Neugier auf die den Netzwerken zugrunde liegenden Annahmen und Techniken gesteigert und (b) Schwellenängsten durch eine zusätzliche Senkung der Schwelle begegnet wird. Das didaktische Potential eines spielerischen Zugangs wie diesem wird in universitären Seminaren praktisch ausgelotet und kritisch evaluiert.



Confounding variables in Sub-Genre classification: instructive problems

Fotis Jannidis1, Leonard Konle1, Peter Leinen2

1Universität Würzburg; 2Deutsche Nationalbibliothek

This paper started out as a report on the state of the art in text classification, but over time it became much more a reflection on the pitfalls in modeling genre using classification. The start of our research was motivated by the recent developments in text classification.

But two observations were irritating: First, we noticed that the classification results were improved when we included the stopwords. Usually removing stopwords improves text classification performance. As most stopwords are typical function words which are used in stylometric research, this indicated that authorship information was used in the classification. Secondly, we noticed strong fluctuations between cross-validation folds, which seemed to indicate a very uneven class distribution.

Because of these findings we started to create complex sampling experiments to determine influences of authorship, periodicals and publishers on sub-genre.

 
9:00 - 10:30V11: Innovationen in der Digitalen Edition
Chair der Sitzung: Ulrike Wuttke, Fachhochschule Potsdam
H 2 
 

DH’s Next Top-Model? Digitale Editionsentwicklung zwischen Best Practice und Innovation am Beispiel des „Corpus Masoreticum“

Clemens Liedtke

Hochschule für Jüdische Studien Heidelberg, Deutschland

Welche Konsequenzen hat das Einführen digitaler Prozesse in geisteswissenschaftliche Forschung auf Architektur und Design konkreter Projekte? Entlang des Spannungsverhältnisses zwischen standardisierten vs. innovativen Verfahren wird am Beispiel des DFG-geförderten Langzeit-Editionsprojektes „Corpus Masoreticum“, das in den Jüdischen Studien verortet ist und sich mit der Erforschung biblischer Metatexte anhand mittelalterlicher Handschriften des 12. und 13. Jahrhunderts befasst, diskutiert, wie diese Unterscheidung sowohl die Datenmodellierung von historischen Quellen als auch die Auswahl digitaler Technologien produktiv beeinflusst. Vor- und Nachteile verschiedener Erschliessungs- und Editionsmethoden (z.B.: linear/hierarchisches XML-Markup vs. "text as a graph") werden am Phänomen der sogenannten "Masora figurata" entwickelt und die methodische Umsetzung an einem konkreten Projektsetup vorgestellt.



Game On!

Torsten Roeder1, Klaus Rettinghaus2

1Berlin; 2Leipzig

Der Vortrag deckt eine Born-Digital-Ressource aus den 1980er und 1990er Jahren auf: Fachmagazine für die User- und Gamer-Community der späten 8-Bit-Ära wurden oft auf sogenannten “Diskmags” publiziert, deren Erhaltungszustand und Zugänglichkeit inzwischen mehr als mangelhaft ist. Dabei stellen diese Magazine eine wichtige kulturgeschichtliche Quelle dar, an der sich beispielsweise die Herausbildung einer Kritik und Ästhetik von Computerspielen beobachten ließe. Braucht es nun eine textkritische (digitale) Edition von Diskmags? Welche Rolle spielt dabei das Originalmedium, und welche Funktion(en) kann Emulation übernehmen? Anhand mehrerer Beispiele werden die Spezifika der Diskmags und die editionstechnischen Herausforderungen beleuchtet und zur Diskussion gestellt.



Spielräume modellieren. Eine digitale Edition von Giovanni Domenico Tiepolos Bildzyklus Divertimento per li Regazzi auf der Grundlage von CIDOC CRM

Rostislav Tumanov, Gabriel Viehhauser, Alina Feldmann, Barbara Koller

Universität Stuttgart, Deutschland

Der Beitrag stellt das Projekt einer digitalen Edition des Bildzyklus Divertimento per li Regazzi von Giovanni Domenico Tiepolo vor. Die einzelnen Blätter des Divertimento zeigen die aus der Commedia dell’Arte bekannte Figur des Pulcinella in unterschiedlichen Situationen, die sich zu einer Art Lebensgeschichte sortieren lassen. Doch wird die Erzähllogik des Bildzyklus immer wieder durch unterschiedliche Anordnungsmöglichkeiten, Querverbindungen und Widersprüche unterlaufen. Zur grundlegenden Strukturierung der Edition erscheint das Datenmodell des CIDOC-CRM besonders geeignet, da es nicht nur die nötige Standardisierung der Daten gewährleistet, sondern sich gerade aufgrund seiner Event-basierten Konzeption für die Aufbereitung des variablen narrativen Bildzyklus einsetzen lässt Der Beitrag stellt die im Projekt umgesetzte Modellierung vor und zeigt, wie sich durch eine solche Herangehenswiese neue Spielräume für die digitale Präsentation von Bildkunstwerken im Übergangsbereich von Bild und Narration eröffnen lassen.

 
9:00 - 10:30V12: Theorien der Textanalyse
Chair der Sitzung: Nanette Rißler-Pipka, Niedersächsische Staats- und Universitätsbibliothek Göttingen
H 3 
 

Textanalyse mit kombinierten Methoden – ein konzeptioneller Rahmen für reflektierte Arbeitspraktiken

Jonas Kuhn, Axel Pichler, Nils Reiter, Gabriel Viehhauser

Universität Stuttgart, Deutschland

Dieser Beitrag versucht, einen intensiven Austausch über einen geeigneten konzeptionellen Rahmen für eine kombiniert komputationell/geisteswissenschaftliche Arbeitspraxis (einen "mixed methods"-Ansatz) zu initiieren. Auf Grundlage der Erfahrungen aus dem Stuttgarter Zentrum für reflektierte Textanalyse (CRETA) heraus diskutieren wir vier Aspekte, die zentral sind für ein methodisch reflektiertes Vorgehen beim Einsatz von adaptierbaren datenorientierten Computermodellen in Verbindung mit Forschungsfragen aus einem geisteswissenschaftlichen Wissenskontext.



Computationelle Textanalyse als fünfdimensionales Problem

Evelyn Gius

Technische Universität Darmstadt, Deutschland

Im Vortrag wird ein auf fünf Aspekten basierendes Modell vorgestellt, anhand dessen die Komplexität von (literaturwissenschaftlichen) Textanalysezugängen in den Digital Humanities eingeschätzt werden kann. Das Modell kann für die Bewertung und Planung von Forschungsprozessen genutzt werden und wird mit konkreten Beispielen vorgestellt.



Anwendungen von DH-Methoden in der Erschließung und Digitalisierung von Kulturerbe. Ein Vorschlag zur Systematisierung

Lina Franken

Universität Hamburg, Deutschland

In der Erfassung und Erschließung von Kulturerbe werden Methoden der Digital Humanities bisher kaum genutzt. Der Beitrag systematisiert die Möglichkeiten und daraus entstehenden Synergieeffekte aufgrund von Projekterfahrungen in beiden Arbeitsbereichen. Potentiale werden insbesondere in der Unterstützung der Erschließung und Erforschung von Kulturerbe-Daten durch Maschine Learning-Verfahren aus den Digital Humanities gesehen. Durch Bildanalyse und in der Untersuchung der bereits bestehenden Metadaten können die in diversen Erfassungszuständen unveröffentlichten Daten einfacher erschlossen und der DH-Forschung zugänglich gemacht werden. Der Beitrag ist als Systematisierung zur weiteren Bearbeitung und Kollaboration zu verstehen, um die Öffnung von Erschließungssystemen und Methoden zu ermöglichen und gleichzeitig die zugehörigen Communities weiter miteinander zu vernetzen.

 
10:30 - 11:00Kaffeepause
 
11:00 - 12:30Panel 4
C 2 
 

Events: Modellierungen und Schnittstellen

Chair(s): Stephan Kurz (Österreichische Akademie der Wissenschaften, Österreich), Christiane Fritze (Österreichische Nationalbibliothek), Helmut W. Klug (Universität Graz, Zentrum für Informationsmodellierung), Christoph Steindl (Österreichische Nationalbibliothek)

Vortragende: Christiane Fritze (Österreichische Nationalbibliothek), Matthias Schlögl (Österreichische Akademie der Wissenschaften, Austrian Centre for Digital Humanities, dataforhistory.org), Sascha Grabsch (Telota/Berlin-Brandenburgische Akademie der Wissenschaften)

Einerseits sind Ereignisse im menschlichen Leben, und damit auch in dessen Dokumentation, allgegenwärtig. Andererseits gibt es in den Digital Humanities gerade für diesen zentralen Bereich Nachholbedarf sowohl betreffend die Modellierung und Kodierung von Ereignissen, als auch betreffend die Austauschbarkeit von Daten über Ereignisse, für die es weder Standards noch Normdatenquellen in breit akzeptierter Form gibt.

Die EinreicherInnen haben angesichts dessen eine Initiative unternommen, das Datenmodell von tei:event zu erweitern, ihm in Analogie zu den anderen Named Entities aus dem TEI-Modul ‘namesdates’ ein tei:eventName zwecks Referenzierung im tei:body zur Seite zu stellen und die Möglichkeiten des tei:listEvent-Wrapperelements zu ergänzen. Zusätzlich streben wir einen breiteren Austauschprozess mit anderen Domänen innerhalb der Digital Humanities an, welche ebenfalls mit Ereignissen zu tun haben. Das vorgeschlagene Panel versammelt Expertinnen und Experten zu einer offen angelegten Diskussion zur Modellierung von Ereignissen sowie zu Einsatzszenarien einer ‘eventSearch API’.

 
11:00 - 12:30V13: Text / Theorie in Vergangenheit und Zukunft
Chair der Sitzung: Alexander Czmiel, Berlin-Brandenburgische Akademie der Wissenschaften
H 1 
 

Positivismus der geistigen Gegenstände: Carnap und die Digital Humanities

Stefan Heßbrüggen-Walter

HSE University, Russland

Der Vorwurf des Positivismus an die Adresse der digitalen Geisteswissenschaften ist ein Gemeinplatz. Jedoch ist es nicht immer einfach zu verstehen, was damit gemeint sei. In meinem Beitrag entwickele ich im Anschluss an Carnaps "Der logische Aufbau der Welt" (1928) ein positivistisches Verständnis des Gegenstandes der digitalen Geisteswissenschaften und zeige, wie ein solches Verständnis der Theoriebildung innerhalb der DH neue Spielräume eröffnen kann.



"As a Hobby at First" – Künstlerische Produktion als Modellierung

Toni Bernhart

Universität Stuttgart, Deutschland

Modellierung und Interpretation sind zentrale Arbeitsfelder der Digital Humanities. Modellierung wird gegenwärtig jedoch vorwiegend theoretisch verstanden und dient der Analyse. Ein anderer Aspekt der Modellierung ist die künstlerische Produktion, die derzeit aber kaum als genuines Arbeitsfeld der Digital Humanities gilt. Anders verhielt es sich in der Kybernetik der späten 1950er und 1960er Jahre. Modellierung wurde ganz selbstverständlich auch als künstlerische Produktion verstanden. Beispielhaft sind der Mathematiker Theo Lutz (1932–2010) und der Physiker Wilhelm Fucks (1902-1990). Lutz' "Stochastische Texte" (1959) waren die ersten mit einer programmierten Rechenmaschine generierten Texte in deutscher Sprache. Fucks, dessen kompositorisches Schaffen bislang unbeachtet geblieben ist, gelang Ende der 1960er Jahre der Anschluss an exponierte Vertreter der Neuen Musik wie Iannis Xenakis, Hermann Scherchen und John Cage. Der Vortrag wird anhand von bislang unveröffentlichtem Archivmaterial das künstlerische Schaffen von Lutz und Fucks veranschaulichen und nach den Unterschieden zwischen historischer Kybernetik und digitaler Medienkunst der Gegenwart fragen.



Wie wir lesen könnten. Streamreader<sub>PS</sub> 0.1

Patrick Sahle

Bergische Universität Wuppertal, Deutschland

Der Vortrag stellt kein Projekt, sondern die Ausgangspunkte und Grundüberlegungen für ein Forschungsprogramm vor. Dabei geht es um die Auseinandersetzung mit Textualität und Textmedialität auf der Basis von Gedankenexperimenten und experimenteller und explorativer Prototypenentwicklung. Dazu wird die Behauptung, Text sei essentiell ein "stream of tokens" ernst genommen und über konsequente Medialisierungsformen bzw. Anwendungen in digitalen Umgebungen nachgedacht. Das Ergebnis sind "streamreader", die Text als einzelne laufende Schriftzeile präsentieren und lesbar machen. Dies wiederum erlaubt die Reflexion von Textualität im Allgemeinen und von einzelnen Textfeatures und medialen Funktionen im Besonderen. Jenseits der intermedialen Reproduktion von Text entstehen Spielräume für das Ausloten neuer Anwendungsmöglichkeiten. Damit wird ein neues Textmedium erfunden, das nicht nur seine Form, sondern auch seine Funktion erst noch finden muss.

 
11:00 - 12:30V2: Neue Wege für Repositorien
Chair der Sitzung: Lisa Dieckmann, Universität zu Köln
H 2 
 

Geschichte aus erster Hand – Der Aufbau eines nationalen Zeitungsportals unter Berücksichtigung der Bedürfnisse verschiedener Nutzergruppen

Lisa Landes, Patrick Dinger

Deutsche Nationalbibliothek, Deutschland

Die Digitalisierung historischer Zeitungen erfreut sich eines zunehmenden Interesses der Wissenschaft. Während mit ANNO, Delpher oder dem British Newspaper Archive in verschiedenen europäischen Ländern nationale Portale als Einstiegspunkte für die Recherche zu historischen Zeitungen etabliert wurden, befindet sich das Deutsche Zeitungsportal erst im Aufbau. Das von der Deutschen Forschungsgemeinschaft (DFG) geförderte Deutsche Zeitungsportal wird nicht nur die Bestände regionaler Portale oder die digitalen Sammlungen einzelner Bibliotheken vereinen, sondern auf der technischen Grundlage der Deutschen Digitalen Bibliothek (DDB) eine umfassende Volltextsuche in den Zeitungsausgaben ermöglichen. Auf Basis der im Förderantrag beschriebenen Anforderungen der Wissenschaft und des Austausches mit Forschenden in Workshops sowie einer modernen Nutzerforschung wird bis Anfang des Jahres 2020 ein Prototyp des Deutschen Zeitungsportals entwickelt. Im Rahmen dieses Vortrags sollen die gewonnen Eindrücke aus der Nutzerforschung und erste Ergebnisse der Entwicklung präsentiert sowie die wissenschaftlichen Anforderungen an ein Deutsches Zeitungsportal diskutiert werden.



Bildrepositorien und Forschung mit digitalen Bildern im Bereich der Kunstgeschichte

Cindy Kröber1, Sander Münster2, Heike Messemer3

1TU Dresden, Deutschland; 2Friedrich-Schiller-Universität Jena, Deutschland; 3Universität Würzburg, Deutschland

Bilder sind eine der Hauptquellen für wissenschaftliche Arbeit im Bereich der Kunstgeschichte. Darüber hinaus stellen Bilder ein wertvolles Werkzeug für die wissenschaftliche Kommunikation und Publikation in der kunsthistorischen Forschung dar. Frühere Studien haben gezeigt, dass die Verfügbarkeit digitaler Bilder KunsthistorikerInnen vor Probleme beim Zugriff und der Interaktion mit ihnen stellt; diese Schwierigkeiten können Fragen zu Auffindbarkeit, Urheberrecht, Metadaten zum Material, geringe Bildqualität oder digitales Design betreffen und das Potenzial digitaler Bilder erheblich einschränken. Eine Nutzerstudie mit Studierenden der Kunstgeschichte soll zeigen, ob diese Themen für eine neue Generation, die mit digitalen Technologien aufwächst und im Privaten mehr denn je damit konfrontiert ist, weiterhin Relevanz besitzen. Weiter sollen Empfehlungen für die Entwicklung neuer Technologien aus den Nutzungsbedarfen der Studierenden abgeleitet werden.



Die Kanonfrage 2.0

Corinna Dziudzia1, Mark Hall2

1KU Eichstätt - Ingolstadt; 2The Open University

Im Rahmen der Kanondebatte seit den 1970er Jahren wird kritisch hinterfragt, wessen Bücher eigentlich publiziert, rezensiert und gelesen werden. Diese Frage muss nun aktualisiert werden: Wessen Texte werden eigentlich digitalisiert? Auffällig arbeitet die digitale Forschung mit Texten eines recht kleinen und männlichen Kanons. Diesem Umstand soll kritisch mit dem Vorschlag eines Online-Portals begegnet werden, das es sich zur Aufgabe gemacht hat, die Lücke in der Digitalisierung weiblichen Schreibens aufzuzeigen, verfügbare Texte sichtbar zu machen und Autorinnen auch für eine breitere Lese-Öffentlichkeit an die Oberfläche zu bringen.

 
11:00 - 12:30V15: Optical Character Recognition
Chair der Sitzung: Alexander Dunst, Universität Paderborn
H 3 
 

The rapid rise of Fraktur

Nikolaus Weichselbaumer1, Mathias Seuret2, Saskia Limbach1, Lena Hinrichsen1, Andreas Maier2, Vincent Christlein2

1JGU Mainz, Deutschland; 2FAU Erlangen, Deutschland

This paper charts the rise of Fraktur as the leading font for printed texts in German by analysing a large dataset of digitised books from the Bavarian State Library using a new tool to autmatically recognise the main font. This is the first study showing statistical data for font usage in any period. It is as much an attempt at furthering the research on Fraktur as it is a demonstration of this method.



Volltexttransformation frühneuzeitlicher Drucke – Ergebnisse und Perspektiven des OCR-D-Projekts

Matthias Boenig2, Elisabeth Engl1, Konstantin Baierer3, Volker Hartmann4, Clemens Neudecker3

1Herzog-August-Bibliothek Wolfenbüttel, Deutschland; 2Berlin-Brandenburgische Akademie der Wissenschaften, Deutschland; 3Staatsbibliothek zu Berlin - Preußischer Kulturbesitz, Deutschland; 4Karlsruher Institut für Technologie

Das schriftliche Kulturgut des deutschsprachigen Raums aus dem 16.–18. Jahrhundert wird schon seit Jahrzehnten in den Verzeichnissen der im deutschen Sprachraum erschienenen Drucke (VD) zusammengetragen. Ein signifikanter Anteil der verzeichneten Titel wurde der Forschung bereits durch die Bereitstellung von Volldigitalisaten oder einzelnen Schlüsselseiten leichter zugänglich gemacht. Das DFG-Projekt OCR-D nimmt sich seit Oktober 2015 im Rahmen der Koordinierten Förderinitiative zur Weiterentwicklung von Verfahren für die Optical-Character-Recognition (OCR) dieser Aufgabe an, indem es eine modular aufgebaute Open Source Software entwickelt, deren Werkzeuge alle für die Texterkennung nötigen Schritte abdecken sollen. Der modulare Ansatz ermöglicht es, die technischen Abläufe und Parameter der Texterkennung stets nachzuvollziehen und maßgeschneiderte Workflows zu definieren, die jeweils optimale Ergebnisse für spezifische Titel aus dem Zeitraum des 16. bis frühen 20. Jahrhunderts liefert. Im Vortrag wird in vier Thesen eine notwendige Begrenzung der Spielräume vorgenommen. Ziel ist es, den Forderungen der DH nach Volltexten gerecht zu werden.



Best-practices zur Erkennung alter Drucke und Handschriften. Die Nutzung von Transkribus large- und small-scale

Tobias Hodel

Universität Bern, Schweiz

Dank der Verbesserung von Handschriftenerkennung können sowohl alte Drucke als auch handschriftliche Dokumente mit guter Qualität erkannt werden. Je nach gewünschtem Ziel unterscheidet sich jedoch die Vorgehensweise bei der Aufbereitung der Dokumente. An unterschiedlichen Stellen muss mehr oder weniger Aufwand betrieben werden.

Anhand von drei typischen Zielen werden best-practice Workflows aufgezeigt, damit der Ressourceneinsatz passgenau geplant werden kann.

Im Rahmen des Vortrags wird gleichzeitig aufgezeigt, inwiefern selbsttrainierte Modelle zur Erkennung von Text evaluiert werden können.

Der Vortrag basiert auf der Nutzung der Software Transkribus und Algorithmen, die im Rahmen von Projekt READ entwickelt wurden

 
12:30 - 13:15Chorprobe
Chair der Sitzung: Torsten Roeder, Deutsche Akademie der Naturforscher Leopoldina
H 1 
12:30 - 14:00Mittagspause
 
12:30 - 14:00AK Digitale Kunstgeschichte
H 5 
14:00 - 15:00Posterslam
Chair der Sitzung: Joachim Veit, Universität Paderborn
Audimax 
15:00 - 16:00AG Digitales Museum
H 4 
15:00 - 16:00AG Referenzcurriculum Digital Humanities
H 5 
15:00 - 17:00Postersession
Audimax 
15:30 - 17:00AG Digitale 3D-Rekonstruktion
H 6 
17:00 - 18:00Event Physik Show
Audimax 
18:00 - 19:00Pause & Bus-Transfer zur Benteler-Arena
 
18:15 - 19:00Besichtigung der Benteler-Arena
Benteler-Arena 
19:00 - 21:00Conference Dinner
Benteler-Arena 

 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: DHd-Tagung 2020
Conference Software - ConfTool Pro 2.6.135
© 2001 - 2020 by Dr. H. Weinreich, Hamburg, Germany