Refine
Document Type
- Master's Thesis (4)
- Bachelor Thesis (1)
Language
- German (5)
Keywords
- Forschungsdaten (5) (remove)
Zur Rolle von Bibliotheken bei der Erarbeitung, Bereitstellung und Bewahrung digitaler Editionen
(2023)
Die vorliegende Arbeit beschäftigt sich mit der Frage, welche Werkzeuge, Infrastrukturen und Dienstleistungen Bibliotheken für die Erarbeitung, Bereitstellung und Bewahrung digitaler Editionen anbieten können. Dazu wird sich dem Thema zunächst anhand des aktuellen Forschungsstandes sowie einer kurzen Abhandlung über Definitionen, Entwicklungen und Begrifflichkeiten angenähert. Dann werden – die Schritte bei der Erstellung einer digitalen Edition entlanggehend – die bereits etablierten Standards, vorhandene Angebote mit konkreten Beispielen sowie Best Practices vorgestellt und daraus Ansatzpunkte für Servicemöglichkeiten abgeleitet. Die Analyse basiert sowohl auf der Forschungsliteratur zum Thema als auch auf den Webseiten von Universitäts- und Forschungsbibliotheken sowie weiterer Akteure aus diesem Bereich. Die Arbeit zeigt, dass Bibliotheken in nahezu allen Phasen digitaler Editionsprojekte unterstützend tätig sein können. Diese Beteiligung am Prozess kann sehr unterschiedlich ausgestaltet sein und von diversen Beratungsleistungen über die Bereitstellung von Tools und Infrastrukturen bis hin zur vollständigen Übernahme einzelner Arbeitsschritte reichen. Bibliotheken können so eine in den Digital Humanities noch nicht eindeutig von einem bestimmten Akteur besetzte Rolle einnehmen und es als Chance nutzen, ihre Position an der eigenen Forschungseinrichtung und für die Forschung insgesamt zu stärken. Neben den finanziellen und personellen Ressourcen stellt jedoch vor allem die Komplexität des Themenbereichs eine große Herausforderung dar.
Forschungsdaten, die im Rahmen von wissenschaftlichen Qualifizierungsarbeiten anfallen, sind integraler Bestandteil der Prüfungsschrift. Allerdings sind die Daten häufig nur als Zusatzmaterial beigefügt und nur selten separat erschlossen und nachgewiesen. Das jedoch kann nur erfolgen, wenn die angefallenen Forschungsdaten entsprechend aufbereitet und beschrieben sind, was zusätzlichen Aufwand erfordert. Besonders bei Qualifizierungsarbeiten stehen die dafür notwendigen Ressourcen häufig nicht ausreichend zur Verfügung.
In dieser Arbeit wird das Konzept des prozessorientierten Forschungsdatenmanagements für qualifizierende Forschungsarbeiten erarbeitet. Es kann ohne großen Aufwand implementiert werden und ermöglicht den Forschenden eine strukturierte Ablage ihrer Forschungsdaten schon während des Forschungsprozesses. Die Daten können während der Ablage so organisiert werden, dass ein anschließendes Archivieren der Forschungsdaten ohne zusätzlichen Mehraufwand möglich ist. Das erarbeitete Konzept wird anhand des am Max-Plank-Institut zur Erforschung von Gemeinschaftsgütern entwickelten Forschungsdatenablagesystems RE:COLL detailliert vorgestellt.
Methoden und Werkzeuge zum professionellen Umgang mit Forschungsdaten spielen
im wissenschaftspolitischen Diskurs seit einiger Zeit eine wesentliche Rolle. Adäquate
organisatorische und technische Lösungen ermöglichen die nachhaltige Sicherung,
Auffindbarkeit und Nachnutzung von Forschungsdaten. Relevante Akteure in diesem
Kontext sind neben Wissenschaftlerinnen und Wissenschaftlern, Rechenzentren und
Bibliotheken der Forschungseinrichtungen. Vielfach liegt der Fokus der Diskussion um
Forschungsdaten und Methoden des Forschungsdatenmanagements auf naturwissenschaftlichen
Disziplinen. Spezifika von Forschungsdaten der Geisteswissenschaften
divergieren jedoch substantiell von Beobachtungs- und Messdaten der Naturwissenschaften.
Diese Arbeit beschreibt einerseits beispielhaft geisteswissenschaftliche Forschungsdaten
und skizziert unterstützende Dienstleistungen wissenschaftlicher Bibliotheken
für den Forschungsprozess und die hierfür notwendigen Organisationsstrukturen.
Die digitale Transformation führt auch bei Bibliotheken und bei Forschungsinfrastrukturen, die
durch die Geistes- und Kulturwissenschaften genutzt werden, zu strukturellen Veränderungen. So
werden kritische Editionen und Wörterbücher elektronisch publiziert, große Mengen an Büchern
digitalisiert und deren Inhalt als elektronisch erschlossene Volltexte der Öffentlichkeit zur Verfügung
gestellt. In den eHumanities etablieren sich durch die Anwendung computergestützter Verfahren
neue Publikationsformen. Es werden neue Arbeitsabläufe für die Publikation und die langfristige
Speicherung der Daten benötigt. Im Rahmen dieser Studie werden Entwicklungspotenziale dieser
neuen fachwissenschaftlichen Anforderungen am Beispiel der Virtuellen Forschungsumgebung TextGrid
analysiert. Es werden zugleich Konzepte und Lösungen entwickelt, die als Funktionserweiterungen in
dieses System implementiert werden. Zugleich stehen neben der Funktionserweiterung, basierend
auf konkreten, erhobenen Anforderungen, die ebenfalls im Rahmen dieser Arbeit vorgestellt und
diskutiert werden, intuitiv bedienbare Implementierungen im Fokus. Darüber hinaus werden technische
Erweiterungen für die Langzeitarchivierungs-Strategien des TextGrid Repositorys und die Verbesserung
des Import- und Publikationsprozesses implementiert und beschrieben.
Der Rat für Informationsinfrastrukturen hat 2016 Empfehlungen zu Strukturen und Prozessen von Forschungsdatenmanagement veröffentlicht. Anhand dieser Empfehlungen werden in der vorliegenden Arbeit Überlegungen getätigt, wie Informationsinfrastrukturen bestehende und zukünftige Aufgabenfelder von Forschungsdatenmanagement bewältigen und verbessern können. Um dieses besser zu veranschaulichen wird dieses beispielhaft an LIVIVO – Dem Suchportal von ZB MED und den Möglichkeiten dort Forschungsdaten nachzuweisen dargestellt. Dabei wird der Lebenszyklus von Forschungsdaten auf mögliche Aufgabengebiete von Informationsinfrastrukturen überprüft, beratende Tätigkeiten von Infrastruktureinrichtungen betrachtet und die deutsche Forschungslandschaft sowie Datenrepositorien identifiziert. Zudem werden Anknüpfungspunkte zum Nachweis von Forschungsdaten in LIVIVO in Form von persistenten Identifikatoren, Metadaten und (Programmierungs-)Schnittstellen erörtert.