Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Nur Sitzungen am Veranstaltungsort 
 
 
Sitzungsübersicht
Sitzung
Lightning Talks
Zeit:
Freitag, 14.03.2025:
11:30 - 12:30

Chair der Sitzung: Matthias Landwehr
Ort: 2. Obergeschoss, Neue Aula
Virtuelle Bühne für den Raum "Neue Aula"


Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

LT01: Nachnutzbar, aber nicht reproduzierbar. Abgeleitete Textformate für die Forschung mit urheberrechtsbewehrten Texten

Philippe Genêt1, Lukas Weimer2

1Deutsche Nationalbibliothek; 2Niedersächsische Staats- und Universitätsbibliothek Göttingen

Text+, eines der 26 Fach- und Methodenkonsortien der Nationalen Forschungsdateninfrastruktur (NFDI), engagiert sich dafür, Forschungsdaten, die auf Text und Sprache basieren, dauerhaft zu bewahren und für die Forschung verfügbar zu machen. Text+ nutzt dazu ein Netzwerk aus Daten- und Kompetenzzentren, die ihre Ressourcen und Erfahrung zur Verfügung stellen. Die Daten und Dienste können zentral abgerufen und verarbeitet werden, wie beispielsweise über die Text+ Registry (https://registry.text-plus.org/) oder die Federated Content Search (https://fcs.text-plus.org/). Viele der zur Verfügung gestellten Ressourcen können frei genutzt werden, einige jedoch sind aufgrund von rechtlichen Beschränkungen nur begrenzt zugänglich.

Eines der Ziele von Text+ besteht darin, auch urheberrechtlich geschützte Werke für die Wissenschaft nutzbar zu machen. Hierzu können abgeleitete Textformate (ATF) dienen, welche die in einem Text oder Korpus vorhandenen Informationen so stark reduzieren, dass keine rechtlichen Beschränkungen mehr bestehen, die Informationen aber noch für bestimmte Analysen des Text and Data Minings (TDM) ausreichen (Schöch et al. 2020). Insbesondere die jüngeren Bestände von Bibliotheken werden dadurch für die Forschung nutzbar.

Die Herstellung von ATFs basiert ebenfalls auf TDM-Methoden und ist rechtlich durch die 2021 eingeführte sogenannte TDM-Schranke im deutschen Urheberrechtsgesetz möglich (§ 60d UrhG). Text+ entwickelt derzeit einen DIN-Standard für ATF und plant eine Veröffentlichung zu den rechtlichen Aspekten dieser Formate, um die beteiligten Gemeinschaften und Institutionen zu unterstützen.

Für die Erstellung von ATFs werden zuvor mit Annotationen angereicherte Textinformationen selektiv verändert. Dazu stehen Methoden des Behaltens, Löschens, Ersetzens und Vertauschens zur Verfügung, die sowohl den Werkgenuss als auch die Wiederherstellbarkeit des Originaltextes (ohne erheblichen Aufwand) unmöglich machen. Für gängige Textanalysemethoden bleibt das Ergebnis jedoch nutzbar (z.B. Du 2023).

Einige der von Text+ bereitgestellten Tools bieten sich für die Weiterverarbeitung von ATFs an, wie z.B. die Natural Language Processing-Pipeline MONAPipe der SUB Göttingen sowie das von der Universität Tübingen bereitgestellte Annotationstool WebLicht. Gleichzeitig bietet Text+ über seine Datenzentren Textkorpora an, die nur in Form von ATFs veröffentlicht werden dürfen.

In unserem Vortrag zeigen wir, wie Text+ urheberrechtlich geschützte Werke für die wissenschaftliche Forschung nutzbar macht, sie in seine Infrastruktur einbindet und als Teil von eScience versteht. Der Vortrag präsentiert – neben Beispielen für ATFs – dieses Vorgehen als ein Instrument, um offene Wissenschaft und eScience zu fördern und die Bearbeitung von rechtlich geschützten textuellen Ressourcen zu ermöglichen.

Bibliographie:

Du, Keli (2023): Understanding the impact of three derived text formats on authorship classification with Delta. DHd 2023 Open Humanities Open Culture. 9. Tagung des Verbands “Digital Humanities im deutschsprachigen Raum” (DHd 2023), Trier, Luxemburg, 10. März 2023. https://doi.org/10.5281/zenodo.7715299.

Schöch, Christof; Döhl, Frédéric; Rettinger, Achim; Gius, Evelyn; Trilcke, Peer; Leinen, Peter; Jannidis, Fotis; Hinzmann, Maria; Röpke, Jörg (2020): Abgeleitete Textformate: Text und Data Mining miturheberrechtlich geschützten Textbeständen. In: Zeitschrift für digitale Geisteswissenschaften.Wolfenbüttel 2020. text/html Format. DOI: 10.17175/2020_006.



LT02: Ein zentrales Dissertationsdatenarchiv als Instrument der guten wissenschaftlichen Praxis

Jan Breder

Universität zu Köln, Deutschland

Gerät eine wissenschaftliche Arbeit in die Kritik, kann dies mehrere Gründe haben: es besteht Plagiatsverdacht oder es sind Zweifel an Datenqualität und Methode aufgekommen. In vielen Fällen liegt der Focus einer sich gegebenenfalls anschließenden Überprüfung der Arbeit dann auf der vorgelegten Publikation, doch bei empirischen Ansätzen wird zunehmend auch die Datengrundlage der in Frage stehenden Forschung in den Blick genommen.

Die Deutsche Forschungsgemeinschaft hat zur Sicherung der guten wissenschaftlichen Praxis (GWP) Leitlinien in Form eines Kodex erstellt ( https://www.dfg.de/resource/blob/173732/4166759430af8dc2256f0fa54e009f03/kodex-gwp-data.pdf ), die auf forschungsdaten.info praxisnah kommentiert werden ( https://forschungsdaten.info/themen/ethik-und-gute-wissenschaftliche-praxis/gute-wissenschaftliche-praxis-und-fdm/ ). Für den Umgang mit Forschungsdaten ergeben sich daraus eine Reihe von Handlungsoptionen und -empfehlungen, die allgemein den FAIR- und CARE-Prinzipien verpflichtet sind.

Dissertationsdaten, also Daten, die zur Erstellung einer Dissertation erhoben wurden, nehmen in diesem Zusammenhang eine Sonderrolle ein, da sie nicht nur Teil des allgemeinen wissenschaftlichen Diskurses sind, sondern auch Teil eines administrativen Verfahrens zur Erlangung des höchsten in Deutschland vergebenen akademischen Grades. In diesem Zusammenhang sind sie ggf. auch Gegenstand einer erneuten Prüfung, sollte die zugehörige Dissertation einer Revision durch die Hochschule unterzogen werden.

Anders als allgemeine Forschungsdaten sind Dissertationsdaten Teil eines universitätsinternen Prozesses, sodass in dieser Phase auch die Datentreuhänderschaft eine andere ist. Sowohl die Hochschule als auch die Autoren von Daten und Dissertation haben ein Interesse daran, dass schon mit Einreichen der Arbeit eine Kopie der zugrundeliegenden Forschungsdaten ausschließlich zu Revisionszwecken gespeichert wird. Da die Arbeit zu diesem Zeitpunkt noch nicht veröffentlicht ist, sollten auch die Daten nur innerhalb der Hochschule für den Verwahrzeitraum in einem "dunklen Archiv" abgelegt werden.

Dazu hat das Forschungsdatanmanagement der Hochschule [x-anonymisiert] einen Prozess etabliert, bei dem die Prüfungsbüros der einzelnen Fakultäten die zu Dissertationen gehörigen Forschungsdaten in einem geschlossenen Archivordner einliefern können, der auf dem Foschungsdatenspeicher abgelegt wird. Der Lightning Talk möchte in die Problematik von Dissertationsdaten einführen und den entwickelten Prozess vorstellen.



LT03: Improving Data Quality through Data Stewardship: An emerging Community of Data Stewards in Germany

Jens Dierkes1, Daniela Hausen2

1Universität zu Köln, Deutschland; 2Heinrich-Heine-Universität Düsseldorf

As research becomes increasingly data-driven, high formal and scientific quality of research data is essential for such data (and metadata) to have an impact on research outcomes [1]. Data Stewardship is a systematic, scientific way of stewarding research data while at the same time ensuring its integrity, accessibility, meaning and usefulness [2]. Based on a number of recent activities in the field of data stewardship, a community of data stewards seems to be growing in Germany. The emerging role of data steward has become increasingly important for the management of research data (RDM) in the scientific disciplines and large research projects such as Collaborative Research Centres and Clusters of Excellence, in the NFDI consortia, and in infrastructure institutions such as libraries and computing centres [3, 4]. Their responsibilities are diverse, including quality control, metadata management, infrastructure development, training, and ensuring compliance with legal and ethical standards. Data stewards often specialise in particular aspects of RDM, depending on the specific needs of their discipline, project, or institutional setting. Despite the diversity of tasks, they often face similar challenges, such as limited (long-term) resources, a lack of standardised procedures and the need for professional training [5, 6]. The DataStew project has identified five prototypical profiles for data stewards, characterised by their competencies, tasks, institutional location, and professional and RDM background [6]. In terms of sustainability and career prospects it is important to make such profiles and their importance to the overall research process more visible.

In preparation for and as part of this year's "Data Stewardship goes Germany" workshop at RTWH Aachen [7], we conducted community building exercises inspired by the developments of the FRDN Knowledge Hub in Flanders [8]. We used a "Community Canvas" [9], which encourages a structured discussion about the identity, experience and structure of a potential community.

Our lightning talk is an introduction to this community of data stewards for our audience and highlights the strategic perspective that the members see as particularly important, alongside the general need for networking and sharing experiences and practices (i.e., a learning space). The strategic perspective implies an awareness of the importance of data stewards in the research process to ensure overall data quality, long-term availability and usability of data, accompanied by continuous skills development of data stewards as technologies evolve (knowledge flows).

[1] Peng, Ge, et al. (2022). https://doi.org/10.5334/dsj-2022-008.

[2] Peng, Ge, et al. (2018). https://doi.org/10.5334/dsj-2018-015.

[3] Hausen, D. et al. (2020). https://doi.org/10.17192/bfdm.2020.2.8278

[4] Curdt, C., et al. (2021). https://doi.org/10.17192/bfdm.2021.3.8347

[5] Steinke, B., et al. (2022). https://doi.org/10.17192/bfdm.2022.1.8364

[6] Seidlmayer, E, et al. (2023). https://doi.org/10.4126/FRL01-006441397.

[7] https://www.dsgg.rwth-aachen.de/cms/~bgnhzs/dsgg/

[8] Oset García, P., et al. (2023). https://doi.org/10.5281/zenodo.10039571

[9] https://community-canvas.org/



LT04: Semantische Metadatenmodellierung und Export von Workflows und Forschungsergebnissen Elektronischer Laborbücher

Nils Preuß, Marc Fuhrmans

TU Darmstadt, Deutschland

Zeitgemäßes Forschungsdatenmanagement auf Basis der FAIR Prinzipien hat mittlerweile Einzug in Leitlinien zur "guten wissenschaftlichen Praxis" von Fördermittelgebern (z.B. DFG) und Forschungsinstitutionen gehalten.

Dies umzusetzen stellt Forschende vor Herausforderungen, insb. bei der Publikation von Daten und damit verbundenen Qualitätsansprüchen an Metadaten im Kontext von Reproduzierbarkeit und Nachnutzung.

Eine Möglichkeit diese arbeitstechnischen Erfordernisse zu unterstützen ist eine möglichst reibungslose Integration mit Werkzeugen, die für Erhebung von und Arbeit mit operativen Daten verwendet werden. Eine Kategorie solcher Werkzeuge sind Electronic Laboratory Notebooks (ELN). Als domänenspezifische Werkzeuge erlauben diese Forschenden Workflows, Ergebnisse, Ressourcen und Werkzeuge zu verwalten. Sie bieten damit einen forschungsnahen Einstiegspunkt ins Forschungsdatenmanagement.

Orientierung für die FAIR-Prinzipien-gerechte Publikation und Nutzung von ELN Inhalten bietet das Konzept der FAIR digital objects: Eine Dateneinheit, die in der Lage ist, mit automatisierten Datenverarbeitungssystemen zu interagieren, eine stabile nutzbare Einheit, die genügend Informationen bündelt, um eine zuverlässige Interpretation und Verarbeitung der darin enthaltenen Daten zu ermöglichen.

Eine mögliche technische Umsetzung von FAIR digital objects ist RO-Crate, mit dem Ziel Forschenden eine flexible Methode zu bieten, umfangreiche Datenpakete (oder andere Forschungsergebnisse) zu archivieren und zu veröffentlichen, indem sie deren Abhängigkeiten und Kontext erfasst. RO-Crate bildet die Grundlage für das ELN file format, einem Standard zum Import in bzw. Export aus ELN. RO-crate nutzt RDF und weitere W3C Standards um Forschungsergebnisse zusammen mit den zugehörigen Metadaten entsprechend der Linked-Data Best-Practices zu bündeln.

Bisher werden in den RO-Crate-basierten Export-Funktionalitäten verbreiteter ELN jedoch nur Strukturelemente der ELN selbst sowie zugehörige Artefakte abgebildet, beispielsweise Schritte eines Workflows und zugehörige hochgeladene Dateien. Um ihre Nachnutzbarkeit zu gewährleisten wird darüber hinaus eine Abbildung der eigentlichen Forschungsergebnisse bzw. ineinander greifender Forschungsprozesse benötigt.

Die Ontologie Metadata4Ing bietet einen generischen Rahmen für eine vollständige semantische Beschreibung eines Prozesses zur Erzeugung wissenschaftlicher Daten, mit besonderem Schwerpunkt auf den Ingenieurwissenschaften und benachbarten Disziplinen. Sie umfasst die Beschreibung des Untersuchungsgegenstandes sowie Proben- und Datenmanipulationsverfahren.

Wir zeigen durch die Kombination von RO-Crate und Metadata4Ing eine generische semantische Modellierung und Export von in ELN dokumentierten Experimenten, Ressourcen und Workflows, am Beispiel von Zugversuchen abgebildet in eLabFTW.



LT05: Die Mischung macht's! Wie die Kombination zweier FDM-Referenzprozesse eine verbundweite Ist-Soll-Analyse ermöglicht

Manuela Richter1, Lucas Krajewski2

1Hochschule Mainz, Deutschland; 2Hochschule Koblenz, Deutschland

Forschungsdatenmanagement (FDM) kann als ein umfassender Change-Prozess hin zu Open Science verstanden werden, der tiefgreifende Veränderungen in der Art und Weise erfordert, wie wissenschaftliche Institutionen und Forschende mit Daten umgehen. Ziel ist es, wissenschaftliche Daten offener, transparenter und zugänglicher zu gestalten, welches zu einer Kultur der Offenheit, Zusammenarbeit und Transparenz in der Forschung führt. Dazu ist neben der Sensibilisierung von Forschenden die strategische Verankerung an den Hochschulen ein wichtiger Faktor für die nachhaltige Entwicklung. Um FDM an den Hochschulen zu verankern, muss auf hochschulpolitischer Ebene ein Strategieprozess initiiert und durchgeführt werden. Kernelement eines Strategieprozesses ist häufig eine Ist-Soll-Analyse, um einerseits den Status-Quo festzustellen und andererseits Ziele festzulegen. Im Kontext FDM helfen sogenannte „FDM-Referenzmodelle“ bei der Durchführung der notwendigen Analysen.

Zwei bekannte Modelle sind DIAMANT [1] und RISE-DE [2], die sich in Ihren Zielen und Zwecken unterscheiden. Das Diamant-Modell arbeitet mit einem FDM-Referenzprozess, um Stakeholder und deren Aufgaben zu identifizieren. Für die Entwicklung eines Anforderungskataloges für FDM-Services steht ein Beschreibungsmodell zur Verfügung. Das RISE-DE-Modell dagegen wird zur Selbstevaluation und Zielbestimmung von FDM-Aktivitäten und Services auf strategischer Ebene herangezogen. Durch eine Kombination beider Modelle kann eine fundierte Ist-Soll-Analyse durchgeführt werden, da sowohl der Prozess abgebildet wird (DIAMANT) als auch eine Methodik zur Evaluation (RISE-DE) vorliegt.

Dieser Ansatz der Kombination beider Modelle wurde bei der Erstellung einer verbundweiten IST-Analyse im Projekt FDM@HAW.rlp (Forschungsdatenmanagement an Hochschulen für angewandte Wissenschaften in Rheinland-Pfalz) genutzt. Hier lag die Herausforderung darin, dass die IST-Analyse einerseits verbundweit vergleichbar und andererseits auf die strategischen Prozesse der einzelnen Hochschulen im Verbund angepasst durchgeführt werden musste. Die in der Analyse zu betrachtenden Handlungsfelder sind dem DIAMANT-Modell entnommen und mit der Klassifizierung anhand der RISE-DE - Kategorien kombiniert worden.

Während der Durchführung der Ist-Analyse an den acht Verbundhochschulen sind zwei Aspekte deutlich geworden: (i) das DIAMANT-Modell ist sehr umfangreich und eher auf Universitäten als auf HAWn ausgerichtet ist, (ii) die Stufen im RISE-DE Modell sind sehr generisch ausgestaltet und erlauben daher viel Spielraum für Interpretationen. Beide Aspekte sind für eine vergleichende, verbundweite Analyse an HAWn hinderlich.

Aus diesem Grund wurden projektspezifische Anpassungen der miteinander kombinierten Modelle vorgenommen. Im DIAMANT-Modell wurden die Handlungsfelder bzw. Rolle der Forschenden eliminiert, um eine Bewertung von außen als Nicht-Forschende zu umgehen und das Modell zu vereinfachen. Beim RISE-DE-Modell wurden die generisch definierten Kategorien projektspezifisch überarbeitet. Dabei wurde für jede FDM-Kompetenz des DIAMANT-Modells die Kategorien ausformuliert, sodass eine genauere und einheitlichere Einstufung und Evaluation vorgenommen werden konnte.

In der Präsentation möchten wir nun kurz das DIAMANT- und das RISE-DE-Modell darstellen und anschließend die Methodik genauer erläutern, wie wir die beiden Modelle kombiniert und auf unsere Analysebedürfnisse angepasst haben. Dabei gehen wir auf die Vorteile der Kombination der beiden Modelle ein. Anschließend werden die Herausforderungen skizziert, die wir bei der Erstellung, Anwendung und Durchführung des neu angepassten Modells gehabt haben. Zum Schluss möchten wir gerne potentielle Lösungsstrategien diskutieren.

[1] Lemaire et al (2020). Das DIAMANT-Modell 2.0: Modellierung des FDM-Referenzprozesses und Empfehlungen für die Implementierung einer institutionellen FDM-Servicelandschaft.

[2] Hartmann et al (2019). RISE-DE–Referenzmodell für Strategieprozesse im institutionellen Forschungsdatenmanagement.



LT06: Perplexity-inspired metasearch-based alternatives to FAIR GPT: Open-source AI consultants for research data management

Renat Shigapov, Jan Kamlah, Thomas Schmidt, Irene Schumm

Universitätsbibliothek, Universität Mannheim

FAIR GPT was recently proposed as a virtual consultant for research data management (RDM) designed to help researchers and institutions in making their data FAIR (Findable, Accessible, Interoperable, Reusable). To reduce hallucinations and improve accuracy for certain tasks, FAIR GPT uses external APIs (FAIR-Checker, FAIR Enough, TIB Terminology, and re3data) and uploaded RDM resources (Horizon 2020 guidelines and the awesome-RDM GitHub repository). Its functionalities include metadata enhancement, dataset organization, repository selection, FAIRness assessment, license recommendations, and generating documentation such as data management plans, README files, and codebooks.

However, FAIR GPT has limitations. It does not provide sources for its answers, which reduces transparency and trust in its outputs. As part of OpenAI's "Custom GPTs", FAIR GPT is not open source, which limits customization, and it lacks an API for integration into existing RDM workflows. Reliance on external cloud-based services leads to privacy concerns when dealing with sensitive (meta)data. These issues led us to explore alternative open-source solutions.

We specifically searched for open-source alternatives to Perplexity AI, a system known for its ability to provide citations for the information it retrieves. We identified three candidates available on GitHub: Perplexica, sensei, and farfalle. These tools use local instances of SearXNG to perform internet search, using the results as contextual input for large language models (LLMs). We modified each of these tools to focus specifically on RDM tasks, releasing the new versions on GitHub openly under the names FAIR-Perplexica, FAIR-sensei and FAIR-farfalle.

We conducted a comparative analysis of these open-source candidates against each other and FAIR GPT, including (but not limited to) the following criteria:

1. Provenance. Unlike FAIR GPT, all three tools provide clear links to the sources of their search results, which improves transparency and trust in their outputs.

2. Privacy. While these tools are designed to run locally, they also send requests to the internet for information retrieval, which leads to privacy concerns.

3. Up-to-dateness. FAIR GPT partly relies on a static knowledge base, which may become outdated. The other tools use internet searches that contain more up-to-date, RDM-specific information.

4. Customizability. The open-source nature of the new tools allows users to customize them according to their specific RDM needs, which contrasts with FAIR GPT.

5. Ease of installation and use. All tools are straightforward to install using Docker Compose, and they offer intuitive, user-friendly graphical interfaces.

6. Community support. Open-source tools benefit from upstream development and a community of contributors.

7. Accuracy and Completeness. Each tool's responses were evaluated for missing information and potential errors.

8. Performance. Due to the varying pre- and post-processing steps involved in each tool, their overall performance differs.

In this work, we introduce and compare the open-source solutions FAIR-Perplexica, FAIR-sensei, and FAIR-farfalle as alternatives to FAIR GPT. These tools are designed for users who prioritize transparency, customization, and control over their (meta)data workflows. However, these tools involve sending requests to the internet via metasearch engine SearXNG, which may lead to privacy challenges.



LT07: Licensing Research Software Made Easy: Introducing the License Checker-Tool

Iqra Imran, Dorothea Iglezakis

Kompetenzzentrum für Forschungsdaten (FoKUS), Universität Stuttgart, Deutschland

Developing research software involves decisions about software licenses, posing challenges for both researchers and developers. Assistance with issuing and verifying licenses is crucial to empower scientists to legally publish and reuse software. A license serves as a clear way to state what is allowed with a piece of software by defining permissions and restrictions associated with code usage. However, it is also a legal document, and only a few research software engineers feel confident interpreting legal texts.

Additionally, developers frequently integrate external libraries or build on code with predefined licenses to enhance the functionality of their code. Then, the challenge is to find a license that aligns with the project's goals and is compatible with the predefined licenses at the same time.

This abstract introduces the License Checker, a web tool designed to simplify the complexities of selecting an appropriate license and finding the compatible licenses, benefiting both research software developers and its users. It serves research software developers by aiding in the discovery of an appropriate license for their software. The tool offers an overview over the most established open-source licenses to compare and choose the licenses that fit to the intended usage of the software. Simultaneously, it assists users in finding compatible licenses, allowing them to seamlessly incorporate external pieces of software codes without risking licensing conflicts. Existing code can be uploaded to the tool and will be scanned for available license files with the help of fossology, an open source license compliance software system and toolkit [1]. Based on a license ontology, the License Checker then takes this list of used licenses as input and provides a list of licenses as output that contains only licenses compatible with each of the input licenses. In a talk or a demo, we would like to present the current state of the License Checker-Tool and discuss the requirements of research software engineers around the licensing of their code.

[1] https://www.fossology.org/



LT08: AI4DiTraRe: Studying Applied AI Within the Process of Digitalisation of Research

Anna Jacyszyn, Harald Sack

FIZ Karlsruhe - Leibniz Institute for Information Infrastructure, Germany

The recently established Leibniz Science Campus “Digital Transformation of Research” (DiTraRe) investigates the effects of the broadly understood process of digitalisation of research on a multilevel scale. The project concentrates on four research clusters concerning different topics and gathering use cases from varying scientific areas. For a multiscale investigation these research clusters are interwoven with four dimensions, which approach the tasks from different perspectives and pose their own research questions. Within this matrix we are not only developing practical solutions for each use case but also seeking to find generalisations valuable to the scientific community as well as society in general.

To gain access to the abundance of information that is available today, search engines and sophisticated information processing applications are required. In order to obtain well-structured knowledge, technologies such as natural language processing, knowledge extraction, and ontology engineering must be applied. Semantic technologies provide a formal representation of knowledge contained in research data, thus facilitating the efficient integration of heterogeneous data sources. The growing adoption of AI-based knowledge mining technologies requires comprehensible and trustworthy AI algorithms (“explainable AI”). Both statistic and linguistic analysis methods as well as machine learning in combination with symbolic logic and interference mechanisms are applied.

The aforementioned AI technologies, among others, are investigated within the DiTraRe project by the dimension “Exploration and knowledge organisation”. For the use case “Sensitive data in sports science”, which is encapsulated in the research cluster “Protected data spaces”, our plan is to develop a knowledge graph which will enable sports scientists to easily analyse their fitness data and make predictions of their studies’ outcomes. We will significantly enhance the ability to interpret fitness data for sports research. In the cluster “Smart data acquisition” we are working with chemists on novel methods of data acquisition. This includes partial automatisation as further digitalisation of a chemistry lab within the Chemotion Electronic Lab Notebook. The use case “Artificial Intelligence in Biomedical Engineering”, enclosed in the cluster “AI-based knowledge realms”, will profit from our support concerning introducing large language models into their research. With biomedical engineers we will use state-of-the-art AI techniques to develop a novel method of predicting the length of stay at an intensive care unit in a non-invasive and much quicker way. We are cooperating with climate researchers on the use case of “Publication of large datasets” (as a representation of “Publication cultures” cluster) where we are employing AI techniques for an unchallenging organisation of very large amounts of research data. A feature to support the process of creation of a uniform platform which we will construct with climate researchers will strongly increase the re-use and availability of earth science data.



LT09: Fachspezifisches Forschungsdatenmanagement: ein extracurriculares Lehrangebot für Studierende und Nachwuchsforschende der gesundheits- und pflegebezogenen Wissenschaften

Katharina Koch1, Stephanie Werner2, Sebastian Reutzel3, Robert Werth3, Lieselotte Lieding4, Hans März5, Nadine Probol2, Katharina Schuckmann6, Judith Dähne6, Anke Osterhoff1, Ingo Neupert6, Eike Quilling1, Katharina Rathmann4, Stefan Schmunk2, Ulrike Schulze3, Karin Tiesmeyer5

1Hochschule für Gesundheit, Deutschland; 2Hochschue Darmstadt, Deutschland; 3Frankfurt University of Applied Sciences; 4Hochschule Fulda; 5Evangelische Hochschule Rheinland-Westfalen-Lippe; 6Hochschule RheinMain

Angesichts der fortschreitenden Digitalisierung und steigenden Datenmengen wachsen die Anforderungen an das Forschungsdatenmanagement (FDM). Vor diesem Hintergrund entwickelt sich Datenkompetenz zu einer Schlüsselqualifikation für Forschende, Personen in den Unterstützungsstrukturen aber auch für Studierende. Als Fähigkeit, Daten reflektiert zu sammeln, zu managen, zu bewerten und anzuwenden (Ridsdale et al., 2015), bildet Datenkompetenz die Basis für fundiertes FDM und damit für effiziente Forschung. Jedoch ist Datenkompetenz in den gesundheits- und pflegebezogenen Wissenschaften, wie z.B. der Pflegewissenschaft oder der Physiotherapiewissenschaft, vergleichsweise gering entwickelt (Klocke et al., 2023). Neben der Beratung und Begleitung von Forschenden durch geschultes FDM-Personal, ist es naheliegend, Studierende und damit potenzielle Nachwuchsforschende an FDM-Themen heranzuführen und so frühzeitig ihre Datenkompetenz zu stärken. Es zeigt sich jedoch, dass die Vermittlung entsprechender Kompetenzen noch nicht explizit in die Lehrpläne von Studiengängen integriert ist. Infolgedessen werden diese Themen in sehr unterschiedlichem Maße in der Lehre aufgegriffen und kaum systematisch vermittelt. Vielmehr werden einzelne Themen, beispielsweise in Modulen zum wissenschaftlichen Arbeiten, kurz angerissen. Bestehende außercurriculare Weiterbildungsangebote im FDM richten sich selten an Studierende und sind bislang generisch ausgerichtet.

Hier setzt das vom BMBF (Bundesministerium für Bildung und Forschung) geförderte Projekt GesundFDM an und entwickelt ein Konzept für eine Spring School, die darauf abzielt, die Datenkompetenz von Studierenden und Promovierenden der gesundheits- und pflegebezogenen Wissenschaften frühzeitig zu fördern. Die GesundFDM Spring School ist als außercurriculares Angebot mit nachnutzbaren, fachspezifischen und praxisorientierten Lehr- und Lernmaterialien (u.a. Lehrvideos) konzipiert, die in digitalen Lernsettings, im Eigenstudium sowie in Präsenzveranstaltungen eingesetzt werden können. Kennzeichnend für diesen Ansatz ist die fachspezifische Ausrichtung, wodurch FDM-Inhalte für die Zielgruppe der Studierenden anwendungsbezogen vermittelt wird. Beispielsweise werden Besonderheiten der einzelnen Disziplinen thematisiert, z.B. der Umgang mit sensiblen personenbezogenen Gesundheitsdaten im Forschungsprozess.

Die Lerninhalte der GesundFDM Spring School wurden angelehnt an die „Lernzielmatrix zum Thema Forschungsdatenmanagement“ (Petersen et al., 2023), die für jedes FDM-Thema generische Lernziele für unterschiedliche Qualifikationsstufen vorschlägt, fachspezifisch aufbereitet. Hierzu wurden diese Ziele um anwendungsorientierte Beispiele und Daten ergänzt. Um den Teilnehmenden die Identifikation mit dem Inhalt zu erleichtern, wurden fünf fiktive Personas entwickelt, die Studierende aus verschiedenen Fachgebieten der gesundheits- und pflegebezogenen Wissenschaften mit unterschiedlichen Bedarfen repräsentieren. Eingebettet in realitätsnahe Beispielfälle wird es den Teilnehmenden so ermöglicht, Anwendungsbereiche von FDM auf ihre eigenen Situation zu übertragen.

Insgesamt ermöglicht das vorgestellte Lehrkonzept die frühzeitige und anwendungsbezogene Heranführung von Nachwuchsforschenden an FDM-Themen. Auf diese Weise werden sie zu einem nachhaltigen und reflektierten Umgang mit eigenen und nachgenutzten Daten, beispielsweise im Rahmen von Abschlussarbeiten, befähigt. Durch den frühzeitigen Kontakt zu FDM-Themen werden diese Praktiken zu einem selbstverständlichen Teil der eigenen wissenschaftlichen Praxis. Dieses Wissen ist auf späteren Karrierestufen, ob innerhalb oder außerhalb der Wissenschaft, von hohem Nutzen

Referenzen

Klocke et al. (2023). Entwicklung und Verbreitung von Forschungsdatenmanagement an Fachhochschulen und Hochschulen für Angewandte Wissenschaften (EVER_FDM): Schlussbericht zum Projekt EVER_FDM. https://doi.org/10.2314/KXP:1877275336

Petersen et al. (2023). Lernzielmatrix zum Themenbereich Forschungsdatenmanagement (FDM) für die Zielgruppen Studierende, PhDs und Data Stewards. https://doi.org/10.5281/zenodo.8010617

Ridsdale, et al. (2015). Strategies and Best Practices for Data Literacy. Education Knowledge Synthesis Report. doi:10.13140/RG.2.1.1922.5044



 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: E-Science-Tage 2025
Conference Software: ConfTool Pro 2.8.105+CC
© 2001–2025 by Dr. H. Weinreich, Hamburg, Germany