Preservation Policies für sparten- und institutionsübergreifende Digitale Langzeitarchivierung
(2015)
Die Vielfalt und schiere Menge von Digitalia im Bereich des digitalen Kulturerbes stellt
Gedächtnisorganisationen vor Aufgaben, die zunehmend kooperativ bewältigt werden
müssen. Kooperationen gelten im Bereich der Digitalen Langzeitarchivierung als probates
Mittel zur Schonung von Personal- und Sachressourcen. Während die technische
Machbarkeit der verteilten Bitstream Preservation bewiesen und auch andere Teilaspekte
der kooperativen Langzeitarchivierung praxistauglich geworden sind, zeigen sich kooperative
Aspekte in Managementinstrumenten wie Preservation Policies unscharf oder
unterrepräsentiert. Die vorliegende Arbeit identifiziert in Top-Down- und Bottom-Up-Ansätzen kooperative Policy-Aspekte und formuliert sie als ergänzende Empfehlungen zu
bestehenden Best-Practice-Materialien des deutschen Kompetenznetzwerkes nestor.
Basierend auf den Vorarbeiten der Forschungsinititativen InterPARES,PLANETSund SCAPE
werden Möglichkeiten der Formalisierung von Preservation Policies aufgezeigt. Dazu zählt
die Übertragung strategischer Ziele in die Strategy Markup Language (StratML) sowie eine
Formalisierung von Policy-Elementen für den Einsatz in skalierbaren Preservation
Environments.
Hintergrund: Free/Libre/Open-Source Software (FLOSS) wird in zahlreichen Anwendungen des täglichen digitalen Lebens eingesetzt. Auch in Bibliotheken findet FLOSS immer öfter Anwendung. Jedoch existieren keine Untersuchungen zur Thematik, weder in einzelnen Aufsätzen noch in der einschlägigen Fachliteratur. Diese Studie versucht, sich der Erforschung dieses Bereichs anzunähern. Methoden: In dieser mit Methoden der qualitativen und quantitativen Forschung erstellten Studie wurden zunächst grundlegende Informationen zur Thematik erarbeitet, mit Hilfe einer Literaturanalyse der Forschungsstand zur Thematik dargelegt und die in Deutschland eingesetzte FLOSS vorgestellt. Anschließend wurden Interviews mit Experten aus Bibliotheken geführt und ausgewertet. Die Dimensionen dieser Interviews wurden mit Hilfe einer Online-Umfrage weiteren Experten aus Bibliotheken in Deutschland vorgelegt. Die abschließende Auswertung erfolgt mit Hilfe einer Triangulation der beiden Methoden. Ergebnisse: Die Studie belegt, dass FLOSS in zunehmendem Maße von wissenschaftlichen Bibliotheken in Deutschland eingesetzt wird. Kernbereich ist hierbei die Suchmaschinentechnologie. Es gibt Hinweise auf ein mögliches Defizit an Kooperation zwischen den Akteuren des Bibliothekswesens, wenngleich FLOSS und damit auch FLOSS-Ökosysteme als strategisches Konzept innerhalb der Personen auf der Ebene des Managements (Direktion, Bibliotheksleitungen) angekommen zu sein scheint. FLOSS stellt aus unterschiedlichen Gründen eine Herausforderung für die Bibliotheken dar. Weiter vermittelt die Studie einen Überblick über die momentan von wissenschaftlichen Bibliotheken in Deutschland eingesetzte FLOSS.
Die Herausforderungen zum Umgang mit Forschungsdaten, die im Begriff Forschungsdatenmanagement zusammengefasst werden, gewinnen im wissenschaftlichen Sektor zunehmend an Bedeutung. Mit diesen werden unter anderem auch wissenschaftliche Einrichtungen konfrontiert, was die Verankerung der Thematik in den institutionellen Rahmendokumenten und in der Umsetzung von unterstützenden zentralen Dienstleitungen und Services als Folge hat. In dieser Ausarbeitung stehen die Konzepte des Forschungsdatenmanagements der Universität Bielefeld, der Humboldt-Universität zu Berlin, der Universität Göttingen und der Universität Heidelberg zur Analyse, die auch in der Verabschiedung von Forschungsdatenpolicies zwischen 2011 und 2014 ihren Ausdruck fanden. Den Kern der Ausarbeitung bildet die inhaltliche Fokussierung der Rahmendokumente in Verbindung mit ihrer Gegenüberstellung zu den bestehenden Implementierungen. Somit werden Erkenntnisse in Bezug auf die Berücksichtigung der einzelnen Aspekte und auf ihre Darstellungstiefe bzw. den Umfang der Umsetzung gewonnen. Der Vergleich der betrachteten Universitäten deckt die Unterschiede in den jeweiligen Konzeptionen auf und ermöglicht eine Optimierung und Erweiterung der Servicekomponenten des Forschungsdatenmanagements im universitären Bereich. Für diesen Zweck wurden Untersuchungskriterien erarbeitet, die die aktuellen thematischen Aspekte zum Management von Forschungsdaten abbilden.
Gegenstand der hier vorgestellten Arbeit ist die IT-Sicherheitsbewertung integrierter Bibliotheksmanagementsysteme am Beispiel des an der Stadtbibliothek Köln eingesetzten Systems Concerto. Es werden grundlegende Merkmale von Bibliotheksmanagementsystemen sowie IT-Sicherheit behandelt. Ausgehend von den Sicherheitsstandards des BSI wird abhängig organisatorischer Gegebenheiten ein Prozess für die Bewertung des Bibliothekssystems Concerto entworfen und die Durchführung exemplarisch skizziert. Ein Zeit-Maßnahmenplan für die Umsetzung wird definiert.
Forschungsdaten, die im Rahmen von wissenschaftlichen Qualifizierungsarbeiten anfallen, sind integraler Bestandteil der Prüfungsschrift. Allerdings sind die Daten häufig nur als Zusatzmaterial beigefügt und nur selten separat erschlossen und nachgewiesen. Das jedoch kann nur erfolgen, wenn die angefallenen Forschungsdaten entsprechend aufbereitet und beschrieben sind, was zusätzlichen Aufwand erfordert. Besonders bei Qualifizierungsarbeiten stehen die dafür notwendigen Ressourcen häufig nicht ausreichend zur Verfügung.
In dieser Arbeit wird das Konzept des prozessorientierten Forschungsdatenmanagements für qualifizierende Forschungsarbeiten erarbeitet. Es kann ohne großen Aufwand implementiert werden und ermöglicht den Forschenden eine strukturierte Ablage ihrer Forschungsdaten schon während des Forschungsprozesses. Die Daten können während der Ablage so organisiert werden, dass ein anschließendes Archivieren der Forschungsdaten ohne zusätzlichen Mehraufwand möglich ist. Das erarbeitete Konzept wird anhand des am Max-Plank-Institut zur Erforschung von Gemeinschaftsgütern entwickelten Forschungsdatenablagesystems RE:COLL detailliert vorgestellt.
Die vorliegende Arbeit untersucht die Möglichkeiten von medizinischen Bibliotheken Wissenschaftler im Publikationsprozess zu unterstützen. Dafür wurde der Unterstützungsbedarf anhand von Leitfadeninterviews mit Professoren, Postdocs und Doktoranden exemplarisch an der Universitätsmedizin Leipzig ermittelt.
Innerhalb der Befragungen wurde neben den individuellen Herausforderungen der Wissenschaftler auch nach den Wünschen an die Bibliothek, sowie der optimalen Zugänglichkeit der Services gefragt. Darüber hinaus wurde untersucht, wie bekannt bereits bestehende Angebote der Universitätsbibliothek (z.B. Publikationsfonds und Forschungsdatenmanagement) sind. Eine Recherche zu Best Practice Beispielen weltweit gibt Anregungen, wie die Bedürfnisse der Wissenschaftler umgesetzt werden könnten.
Die aktuellen Angebote konnten mit den Erwartungen der Wissenschaftler abgeglichen und damit Defizite identifiziert werden. Die Ergebnisse dieser kombinierten Methode erlauben Rückschlüsse auf die aktive Weiterentwicklung der Bibliothek auf dem Gebiet der publikationsunterstützenden Dienstleistungen.
Die vorliegende Masterarbeit eruiert informationswissenschaftliche Methoden, um den schriftlichen
Nachlass (bestehend aus Korrespondenzen, (Lebens-)Dokumenten, Fotografien u.ä.) der Familie
Pankok, namentlich von Otto, Hulda und Eva Pankok, zu erschließen. Bei der Bestimmung der
Verfahrensweise sind die Besonderheiten des Pankok Museums und der Otto Pankok Stiftung
entscheidend. Da das Pankok Museum ein kleines Museum mit geringem Stiftungsvermögen der
Otto Pankok Stiftung ist, wird bei der Ermittlung dementsprechend analysiert, welche Maßnahmen
der vorhandenen Infrastruktur gerecht werden. Am Ende der Arbeit steht eine skalierte Bewertung
mit Methoden, die praktisch Schritt für Schritt abgearbeitet werden kann.
Um diese Bewertung fundiert vornehmen zu können, werden vorab nicht nur das Pankok Museum
und die Otto Pankok Stiftung mit ihren Strukturen, finanziellen und personellen Ressourcen sowie
Eigenheiten vorgestellt, sondern auch Nutzer*innengruppen eruiert, die derzeit und zukünftig mit
dem Nachlass der Familie Pankok arbeiten sollen und wollen. Daraus resultierend ermittelt die
Arbeit, die jeweiligen Nutzungsbedarfe dieser Gruppen. Hieraus ergeben sich schließlich Methoden
der Erschließung, die den jeweiligen Bedarfen gerecht werden. Ausgehend von dieser Ausgangsbasis
erarbeitet die Arbeit verschiedene Methoden: Die Gliederung des Bestandes; die vollumfängliche
Erschließung, insbesondere die Einführung eines Archivinformationssystems und einer Klassifikation
bzw. eines Metadatenschemas und die Aufstellungsart; die Digitalisierung, mit Hinblick auf OCR und
Zugangsmöglichkeiten und die Sichtbarkeit und Präsenz. Ein weiteres Kapitel beschäftigt sich neben
den Erschließungsmethoden mit den Gesetzen, die im Rahmen der Erschließung zu beachten sind,
insbesondere das Nutzungs- und Urheberrecht.
Um herauszufinden, inwiefern diese Methoden umgesetzt werden können, evaluiert die Arbeit die
einschlägigen Regelwerke, wie die Regeln zur Erschließung von Nachlässen und Autographen (RNA),
und wirft einen Blick auf andere informationswissenschaftliche Einrichtungen und wie diese
ähnliche Projekte umgesetzt haben.
Schon während der Erhebung von verschiedenen Methoden wird die jeweilige Umsetzbarkeit
anhand der Möglichkeiten des Pankok Museums diskutiert, so dass abschließend
Handlungsvorschläge gegeben werden, die mit einer skalierten Bewertung der Vorgehensweise
enden.
Die FAIR-Prinzipien setzen sich seit ihrer Formulierung im Jahr 2016 immer mehr durch. Ihr Ziel ist, die Nachnutzbarkeit von Forschungsdaten sicherzustellen, allerdings sind es nur Leitlinien, die fachlich ausgelegt werden müssen. Wissenschaftliche digitale Editionen, die hier als Daten-Community verstanden werden, kämpfen vermehrt mit dem Problem der Nachhaltigkeit. Es wird daher untersucht, inwiefern die FAIR-Prinzipien als Leitlinien für digitale Editionen herangezogen werden können. Hierbei werden sowohl die zugrunde liegenden Daten als auch die Software in der Analyse berücksichtigt. Es zeigt sich, dass alle Facetten der Prinzipien bereits unter anderem Namen diskutiert werden, die FAIR-Prinzipien dennoch als Leitlinien für zukünftige Entwicklungen produktiv herangezogen werden können.
Der immer schnellere voranschreitende technische Fortschritt zieht auch in der täglichen Arbeit der nationalen wissenschaftlichen Bibliotheken einen Strukturwandel mit sich. Besonders spürbar sind die Veränderungen bei der komplexen Verwaltung von erworbenen elektronischen Ressourcen, sprich Datenbanken, E-Journals oder E-Books. Vor allem im Bereich der konsortialen Arbeit und der dort stattfindenden Zusammenarbeit zwischen den wissenschaftlichen Bibliotheken und den bundesweit angesiedelten Konsortialstellen, existieren bisher noch keine adäquaten Abläufe beim Management der lizenzierten E-Ressourcen. Das Nachhalten aller relevanter LizenzInformationen, wie beispielsweise Kosten, Lizenz- und Archivzeiträume, Titellisten oder Nutzungsstatistiken, für die vielfältigen elektronischen Ressourcen wird immer komplexer und somit wird es schwieriger, die Ressourcen zentral und transparent zu verwalten. Als Lösung zur Schließung dieser momentan bestehenden Lücke der Verwaltung von E-Ressourcen im Konsortialbereich, wird das Electronic Resource Management System LAS:eR vorgestellt, welches speziell für das Management aller konsortialer Handlungsbedarfe im Bereich E-Ressourcen entwickelt wurde. Anhand von LAS:eR wird verdeutlicht, wie zukünftig die Workflows zwischen den deutschsprachigen Konsortialstellen und den nationalen wissenschaftlichen Bibliotheken deutlich optimiert werden können und dadurch bundesweit Veränderungen in der Konsortialarbeit angestoßen werden können.
Digitale Repositorien – ob institutionell oder fachspezifisch – als Infrastrukturen für die Speicherung und Verfügbarmachung des wissenschaftlichen Outputs stellen seit ihren Anfängen vor über zwei Jahrzehnten eine zentrale Säule für die Wissens- und Erkenntnisproduktion dar und sind in der sich rapide ändernden Welt der wissenschaftlichen Kommunikation heutzutage nicht mehr wegzudenken. Die ersten institutionellen Repositorien, die von Universitätsbibliotheken angeboten wurden, galten der klassischen Forschungsliteratur (z.B. Journal Artikel) und anderen hauptsächlich textuellen wissenschaftlichen Beiträgen (z.B.WorkingPapers). Somit haben sich wissenschaftliche Bibliotheken von Anfang an – durch die Bereitstellung von zentralen Infrastrukturen – eine prominente Rolle bei der Sammlung, Speicherung und der Sicherstellung eines offenen Zugangs zu Forschung gesichert. Durch den kontinuierlichen Wandel der Forschungspraxen sind digitale Repositorien heute mehr denn je vor neue Herausforderungen gestellt. Durch die neu entstandenen datengetriebenen Wissenschaften und durch die stark voranschreitende Digitalisierung in Wissenschaft haben sich die Produkte der Forschung von textbasierten zu komplexen Datentypen, wie unstrukturierten Daten, Datenbanken, Multimedia-Objekten oder Digitalisaten gewandelt. Akademische Bibliotheken, die bereits eine Reihe von Basisfunktionalitäten für Forschungsdaten anbieten (z.B. PID-Vergabe, Datenpublikation oder Verknüpfung von Forschungsliteratur mit Daten) sind dennoch mit einer Fülle von technischen und organisatorischen Herausforderungen konfrontiert. Auch ergeben sich durch das schnelle Wachstum der Datenmengen, der kontinuierlichen Ausdifferenzierung der Datentypen und der Komplexität ihrer Zusammenstellung für digitale Repositorien neue Anforderungen an Metadaten, Discovery, Visualisierung oder Langfristspeicherung. Zusätzlich verschärfen Forschungsförderer und wissenschaftspolitische Gremien ihre Anforderungen an die Qualitätssicherung in der Forschung. Für Repositorien hat dies zur Folge, dass sie ihre Vertrauenswürdigkeit im Rahmen der Zertifizierung darlegen müssen und auch aktuell durch die im Jahr 2017 eingeführten FAIR Data Principles als „Framework“ für ein systematisches und nachhaltiges Datenmanagement, ihre Mission, Organisation und Technik an die neuen Gegebenheiten anpassen müssen. Die FAIR Data Principles, welche mittlerweile einen defacto-Standard des qualitätsbewussten Datenmanagements darstellen, verlangen nämlich, dass das Datenmanagement ständig darauf ausgerichtet sein soll, dass Forschungsdaten findable (auffindbar), accessible (zugänglich), interoperable (interoperabel) und reusable (nachnutzbar) gemacht werden und dauerhaft bleiben. Für die Umsetzung von FAIR im Kontext eines institutionellen Repositoriums spielen sowohl informationstechnologische, organisatorische und disziplinspezifische Aspekte eine Rolle. In dieser Masterarbeit wird der aktuelle Stand, die heutigen Herausforderungen und Anforderungen und schließlich die Möglichkeiten der Umsetzung der FAIR Data Principles in institutionellen Repositorien qualitativ anhand von Praxisbeispielen untersucht. Die disziplinspezifischen Anforderungen, vor allem in Bezug auf Open Science und Reproduzierbarkeit werden exemplarisch anhand von zwei – bewusst ausgesuchten stark datengetriebenen Fachdisziplinen – den Digital Humanities und den Computational Economics analysiert und dargelegt. In Kombination mit einer qualitativen Evaluation des institutionellen Repositoriums der Universität Bielefeld in Bezug auf FAIR Principles, ergibt sich ein großflächiges Bild über die Anforderungen, mögliche Umsetzungen und Grenzen von IRs. Basierend darauf, werden in dieser Arbeit Empfehlungen für ein FAIRes institutionelles Repositorium ausgesprochen.