Refine
Year of publication
Document Type
- Master's Thesis (30)
- Bachelor Thesis (8)
- Diploma Thesis (1)
Keywords
Die Masterarbeit beschäftigt sich mit digitalen Schriftstellernachlässen unter besonderer Berücksichtigung
von Originaldateien. Dazu dient zunächst eine Begriffsbestimmung des digitalen
Autografs sowie eine Erhebung der Arbeitsweisen zeitgenössischer Autoren, um dem Problemfeld
der Übernahme und Speicherung digitaler Nachlässe auf die Spur zu kommen. Der Übernahme
eines digitalen Bestands ins Archiv – besonders der Dateien des Thomas-Strittmatter-
Nachlasses in das Deutsche Literaturarchiv in Marbach – sowie der Herausarbeitung signifikanter
Eigenschaften (Significant Properties) des digitalen Strittmatter-Bestands widmet sich die
weitere Arbeit. Abschließend werden die so identifizierten Merkmale digitaler Autografe mit
zwei anderen Beständen – Ernst Schnabels und Walter Erich Richartz' – verglichen. Ein
abschließendes Kapitel fasst die Ergebnisse der Arbeit zusammen und versucht als Ausblick
Ideen für die eindeutige Identifizierung von digitalen Autografen und der stärkeren Einbeziehung
von Institutionen des Literaturbetriebs (Literaturhäuser usw.) in die Übernahme und
langfristigen Speicherung digitaler Nachlässe zu entwickeln.
Die Entwicklung und der Betrieb von Bibliothekssystemen ist seit den 1980er Jahren eine unabdingbare Voraussetzung für nutzerorientierte Serviceleistungen und eine effiziente Ablauforganisation in Bibliotheken. Dies gilt auch für die internationale Bibliotheksarbeit von Kulturinstituten. Dabei nehmen das Goethe-Institut und das spanische Instituto Cervantes eine besondere Rolle ein. Beide Institute unterhalten das jeweils größte internationale Netzwerk von Spezialbibliotheken mit Landesbezug. Die vorliegende Arbeit gibt einen Überblick über die Bibliotheksarbeit der beiden Institute und verfolgt das Ziel, ein Entwicklungskonzept für die Funktionalität und Struktur des Bibliothekssystems des Goethe-Instituts zu formulieren. Grundlage dafür ist eine Darstellung der Anforderungen an ein Bibliothekssystem im internationalen Kontext und eine darauf aufbauende Analyse der gegenwärtigen Anwendungen „Allegro-C“ des Goethe-Instituts und „AbsysNet“ des Instituto Cervantes. Die Ergebnisse dieser vergleichenden Analyse bilden die Basis des Entwicklungskonzepts für das Goethe-Institut.
Die vorliegende Masterarbeit eruiert informationswissenschaftliche Methoden, um den schriftlichen
Nachlass (bestehend aus Korrespondenzen, (Lebens-)Dokumenten, Fotografien u.ä.) der Familie
Pankok, namentlich von Otto, Hulda und Eva Pankok, zu erschließen. Bei der Bestimmung der
Verfahrensweise sind die Besonderheiten des Pankok Museums und der Otto Pankok Stiftung
entscheidend. Da das Pankok Museum ein kleines Museum mit geringem Stiftungsvermögen der
Otto Pankok Stiftung ist, wird bei der Ermittlung dementsprechend analysiert, welche Maßnahmen
der vorhandenen Infrastruktur gerecht werden. Am Ende der Arbeit steht eine skalierte Bewertung
mit Methoden, die praktisch Schritt für Schritt abgearbeitet werden kann.
Um diese Bewertung fundiert vornehmen zu können, werden vorab nicht nur das Pankok Museum
und die Otto Pankok Stiftung mit ihren Strukturen, finanziellen und personellen Ressourcen sowie
Eigenheiten vorgestellt, sondern auch Nutzer*innengruppen eruiert, die derzeit und zukünftig mit
dem Nachlass der Familie Pankok arbeiten sollen und wollen. Daraus resultierend ermittelt die
Arbeit, die jeweiligen Nutzungsbedarfe dieser Gruppen. Hieraus ergeben sich schließlich Methoden
der Erschließung, die den jeweiligen Bedarfen gerecht werden. Ausgehend von dieser Ausgangsbasis
erarbeitet die Arbeit verschiedene Methoden: Die Gliederung des Bestandes; die vollumfängliche
Erschließung, insbesondere die Einführung eines Archivinformationssystems und einer Klassifikation
bzw. eines Metadatenschemas und die Aufstellungsart; die Digitalisierung, mit Hinblick auf OCR und
Zugangsmöglichkeiten und die Sichtbarkeit und Präsenz. Ein weiteres Kapitel beschäftigt sich neben
den Erschließungsmethoden mit den Gesetzen, die im Rahmen der Erschließung zu beachten sind,
insbesondere das Nutzungs- und Urheberrecht.
Um herauszufinden, inwiefern diese Methoden umgesetzt werden können, evaluiert die Arbeit die
einschlägigen Regelwerke, wie die Regeln zur Erschließung von Nachlässen und Autographen (RNA),
und wirft einen Blick auf andere informationswissenschaftliche Einrichtungen und wie diese
ähnliche Projekte umgesetzt haben.
Schon während der Erhebung von verschiedenen Methoden wird die jeweilige Umsetzbarkeit
anhand der Möglichkeiten des Pankok Museums diskutiert, so dass abschließend
Handlungsvorschläge gegeben werden, die mit einer skalierten Bewertung der Vorgehensweise
enden.
Mobiles Internet und Smartphones haben in der heutigen Zeit einen großen Stellenwert. Da jedoch bisher die Anzahl an Bibliotheken, die eine eigene native Applikation besitzen gering ist, untersucht die vorliegende Arbeit, welche technischen Funktionen eine idealtypische native Applikation für öffentliche Bibliotheken besitzen sollte. Dazu werden zunächst die technischen Rahmenbedingungen für eine solche erläutert. Im weiteren Vorlauf werden bereits verfügbare native Applikationen vorgestellt, sowie softwareergonomische Anforderungen besprochen. Ebenso werden in der Zusammenfassung und Schlussfolgerung mögliche Auswirkungen auf die Bibliothek und ihr Personal beschrieben.
Die Herausforderungen zum Umgang mit Forschungsdaten, die im Begriff Forschungsdatenmanagement zusammengefasst werden, gewinnen im wissenschaftlichen Sektor zunehmend an Bedeutung. Mit diesen werden unter anderem auch wissenschaftliche Einrichtungen konfrontiert, was die Verankerung der Thematik in den institutionellen Rahmendokumenten und in der Umsetzung von unterstützenden zentralen Dienstleitungen und Services als Folge hat. In dieser Ausarbeitung stehen die Konzepte des Forschungsdatenmanagements der Universität Bielefeld, der Humboldt-Universität zu Berlin, der Universität Göttingen und der Universität Heidelberg zur Analyse, die auch in der Verabschiedung von Forschungsdatenpolicies zwischen 2011 und 2014 ihren Ausdruck fanden. Den Kern der Ausarbeitung bildet die inhaltliche Fokussierung der Rahmendokumente in Verbindung mit ihrer Gegenüberstellung zu den bestehenden Implementierungen. Somit werden Erkenntnisse in Bezug auf die Berücksichtigung der einzelnen Aspekte und auf ihre Darstellungstiefe bzw. den Umfang der Umsetzung gewonnen. Der Vergleich der betrachteten Universitäten deckt die Unterschiede in den jeweiligen Konzeptionen auf und ermöglicht eine Optimierung und Erweiterung der Servicekomponenten des Forschungsdatenmanagements im universitären Bereich. Für diesen Zweck wurden Untersuchungskriterien erarbeitet, die die aktuellen thematischen Aspekte zum Management von Forschungsdaten abbilden.
Die vorliegende Masterarbeit widmet sich der „Digitalen Revolution“ Kubas seit
1959 und der Frage, inwiefern das US-amerikanische Embargo diese behindert
oder im Gegenteil befördert hat.
Anschließend wird der Einfluss der „Digitalen Revolution“ auf die kubanische
Nationalbibliothek Biblioteca Nacional de Cuba José Martí untersucht. Besondere
Aufmerksamkeit wird der Digitalisierung und der Nachnutzung der Digitalisate
in der Nationalen Digitalen Bibliothek, beziehungsweise in internationalen
Kooperationen virtueller Bibliotheken gewidmet.
Personal Digital Archiving
(2014)
Personal Digital Archiving ist ein wenig untersuchtes Forschungsgebiet, dass sich mit der Archivierung privater Daten durch private Anwender beschäftigt. Individuelle Archivierungsstrategien, eingeschränkte technische und organisatorische Kompetenzen und emotionale Entscheidungen verhindern automatisierte Archivierungshandlungen, wie sie für die institutionelle Langzeitarchivierung definiert sind. Diese Arbeit untersucht, welche Konzepte der institutionellen Langzeitarchivierung in skalierter Form auch durch private Anwender adaptiert werden können und wie diese in Deutschland durch Bibliotheken in ihrer Funktion als Experten für die institutionelle Langzeitarchivierung, aber auch als direkte Schnittstelle zum archivierenden Nutzer vermittelt werden können. Vorgeschlagen wird die Erstellung allgemeiner Informationen unter Beteiligung von nestor sowie die Vermittlung innerhalb von Veranstaltungen zur Informationskompetenz an wissenschaftlichen Bibliotheken und die praktische Umsetzung durch den Aufbau gemeinschaftlicher Repositorien an öffentlichen Bibliotheken.
Bereits seit einem Jahrzehnt ersetzen bzw. ergänzen Discovery-Systeme im Zuge
stärkerer Nutzer- und Dienstleistungsorientierung herkömmliche Online-Kataloge vor
allem in Wissenschaftlichen Bibliotheken. Dem verwunderlichen Umstand, dass trotz
ähnlicher Entwicklungslinien in Öffentlichen und Unternehmens-Bibliotheken
Discovery-Systeme dort noch kaum verbreitet sind, begegnet diese Arbeit mit einer
vergleichenden Gegenüberstellung der Bedarfs- und Angebotssituation für diese beiden
Bibliothekstypen. Somit soll nicht nur Entscheidungsträgern in Unternehmens-
Bibliotheken sowie in Öffentlichen Bibliotheken eine erste Orientierung bei der
Entwicklung und Erstellung eigener Anforderungsprofile angeboten werden, sondern
auch Anbieter von Discovery-Lösungen finden in der vorliegenden Arbeit Anregungen
zur Anpassung ihrer Angebotspalette für einen bisher nur ungenügend berücksichtigten
Marktbereich.
Die Open-Access-Initiative adressiert in den letzten Jahren verstärkt die Finanzierung von Büchern. Die Etablierung von geeigneten Geschäftsmodellen gestaltet sich schwierig, da für Zeitschriften etablierte OA-Modelle nicht ein zu eins auf Bücher übertragbar sind. Diese Bestrebungen werden durch zahlreiche unterschiedliche Open Access-Modelle sichtbar, die in dem Bereich für Buchpublikationen derzeit praktiziert werden. Neben institutioneller Förderung, Autorenfinanzierung oder hybridem Publizieren gibt es für das Open Access Buch auch alternative Finanzierungsformen. Ein innovatives Projekt, das sich auf die Idee des Crowdfundings stützt, ist Knowledge Unlatched. Basierend auf einem kooperativen Geschäftsmodell tragen Bibliotheken die Open-Access-Kosten für Bücher gemeinschaftlich als globales Konsortium. Diese Arbeit untersucht die Frage, unter welchen Voraussetzungen die kooperative Finanzierung für Bücher im Open Access ein attraktives Angebot für wissenschaftliche Bibliotheken in Deutschland darstellt und sich als nachhaltiges Modell etablieren kann. Dafür wurden Experteninterviews geführt mit dem Ziel, die Erfahrungen von Bibliotheken bei der Umsetzung von kooperativen Finanzierungsmodellen zu beleuchten. Folgende Aspekte wurden dabei untersucht: Kooperative Finanzierungsformen im Kontext der institutionellen OA-Aktivitäten, Besonderheiten bei der Teilnahme an kooperativen Modellen, das Zusammenspiel von bibliothekarischer Erwerbung und kooperativen Finanzierungsmodellen für Open-Access-Bücher, die Rolle von vertrauensbildenden Faktoren und Maßnahmen.
Bei der Auswahl eines Bibliothekssystems müssen spezifische Anforderungen für jede Bibliothek gesondert ermittelt werden. Bereits in der Vergangenheit wurden Anforderungskataloge formuliert, die als Orientierungshilfen bei der Auswahl und Evaluation von Bibliothekssystemen genutzt werden. Hauptgegenstand dieser Masterarbeit ist eine Zusammenstellung allgemeiner und funktionaler Anforderungen, die gegenwärtig und zukünftig an Bibliothekssysteme gestellt werden können. Vor dem Hintergrund aktueller Entwicklungen, wie der zunehmenden Digitalisierung von Informationen, ebenso den Möglichkeiten des Web 2.0 und deren Auswirkungen auf die Gestaltung von Bibliothekskatalogen, werden Anforderungen formuliert. Die Entwicklung von Bibliothekssystemen, gegenwärtig geprägt durch den Einsatz von integrierten, geschlossenen Systemen hin zu webbasierten, modu-lar aufgebauten Systemen, wird aufgezeigt. Die Masterarbeit wird als Weiterentwicklung bereits vorhandener Anforderungskataloge verstanden. Die Ausarbeitung richtet sich an Entscheidungsträger in One-Person Libraries und Öffentlichen Bibliotheken der ersten Stufe, für die es aufgrund ihrer geringen personellen Ausstattung schwierig ist, zeitliche Ressourcen für die Auswahl eines Bibliothekssystems zu erübrigen. Ziel ist es ein praxisorientiertes Arbeitsinstrument für diesen Personenkreis zur Verfügung zu stellen.
Forschungsdaten, die im Rahmen von wissenschaftlichen Qualifizierungsarbeiten anfallen, sind integraler Bestandteil der Prüfungsschrift. Allerdings sind die Daten häufig nur als Zusatzmaterial beigefügt und nur selten separat erschlossen und nachgewiesen. Das jedoch kann nur erfolgen, wenn die angefallenen Forschungsdaten entsprechend aufbereitet und beschrieben sind, was zusätzlichen Aufwand erfordert. Besonders bei Qualifizierungsarbeiten stehen die dafür notwendigen Ressourcen häufig nicht ausreichend zur Verfügung.
In dieser Arbeit wird das Konzept des prozessorientierten Forschungsdatenmanagements für qualifizierende Forschungsarbeiten erarbeitet. Es kann ohne großen Aufwand implementiert werden und ermöglicht den Forschenden eine strukturierte Ablage ihrer Forschungsdaten schon während des Forschungsprozesses. Die Daten können während der Ablage so organisiert werden, dass ein anschließendes Archivieren der Forschungsdaten ohne zusätzlichen Mehraufwand möglich ist. Das erarbeitete Konzept wird anhand des am Max-Plank-Institut zur Erforschung von Gemeinschaftsgütern entwickelten Forschungsdatenablagesystems RE:COLL detailliert vorgestellt.
Die ungebrochen rasante Entwicklung digitaler Technik erzeugt wachsenden Druck auf die textorientierte Geschichtswissenschaft. Diese sieht sich von Forschungsförderung und Teilen der eigenen Fachgemeinde in den letzten Jahren zunehmend aufgefordert, dezidierter ihre Position innerhalb des umfassenderen gesellschaftlichen Prozesses des digitalen Wandels zu bestimmen. In der geschichtswissenschaftlichen Forschung stehen die Spezialbibliotheken als Forschungsstätte vor der Herausforderung, ihre Anteile von Speicherort für Medien und Lernort für Forschende neu zu gewichten. Dies vor dem Hintergrund einer stetig zunehmenden Dematerialisierung durch Digitalisierung der Ressourcen auf entfernten Servern. Was für die technikaffinen Naturwissenschaften die gänzlich virtuelle Bibliothek attraktiv macht, scheint auch für die geschichtswissenschaftliche Spezialbibliothek das Auslaufen analoger Buchzentriertheit nahezulegen. Das seit 20 Jahren in der Fachdiskussion so genannte Modell der Hybridbibliothek erweist sich hier als ein bislang tragfähiges Dauerkonzept bei der funktionalen und konzeptionellen Orientierung. Es garantiert der textorientierten Geschichtswissenschaft auch nach dem gegenwärtigen Stand der Diskussion Wissensgenerierung durch Verwendung digitaler Forschungsressourcen bei gleichzeitig haptischräumlicher Präsenz einer Sammlung. Mit Fokus auf die geschichtswissenschaftliche Spezialbibliothek des Deutschen Historischen Instituts Paris, eines der 10 Forschungsinstitute der Max-Weber-Stiftung, soll das Konzept Hybridbibliothek in dieser Arbeit mit dem Diskussionsstand 2015 evaluiert und Argumente für seine bewusste Anwendung in den Spezialbibliotheken der Max-Weber-Stiftung gesichtet werden.
Preservation Policies für sparten- und institutionsübergreifende Digitale Langzeitarchivierung
(2015)
Die Vielfalt und schiere Menge von Digitalia im Bereich des digitalen Kulturerbes stellt Gedächtnisorganisationen vor Aufgaben, die zunehmend kooperativ bewältigt werden müssen. Kooperationen gelten im Bereich der Digitalen Langzeitarchivierung als probates Mittel zur Schonung von Personal- und Sachressourcen. Während die technische Machbarkeit der verteilten Bitstream Preservation bewiesen und auch andere Teilaspekte der kooperativen Langzeitarchivierung praxistauglich geworden sind, zeigen sich kooperative Aspekte in Managementinstrumenten wie Preservation Policies unscharf oder unterrepräsentiert. Die vorliegende Arbeit identifiziert in Top-Down und Bottom-Up-Ansätzen kooperative Policy-Aspekte und formuliert sie als ergänzende Empfehlungen zu bestehenden Best-Practice-Materialien des deutschen Kompetenznetzwerkes nestor. Basierend auf den Vorarbeiten der Forschungsinitiativen InterPARES, PLANETS und SCAPE werden Möglichkeiten der Formalisierung von Preservation Policies aufgezeigt. Dazu zählt die Übertragung strategischer Ziele in die Strategy Markup Language (StratML) sowie eine Formalisierung von Policy-Elementen für den Einsatz in skalierbaren Preservation Environments.
Preservation Policies für sparten- und institutionsübergreifende Digitale Langzeitarchivierung
(2015)
Die Vielfalt und schiere Menge von Digitalia im Bereich des digitalen Kulturerbes stellt
Gedächtnisorganisationen vor Aufgaben, die zunehmend kooperativ bewältigt werden
müssen. Kooperationen gelten im Bereich der Digitalen Langzeitarchivierung als probates
Mittel zur Schonung von Personal- und Sachressourcen. Während die technische
Machbarkeit der verteilten Bitstream Preservation bewiesen und auch andere Teilaspekte
der kooperativen Langzeitarchivierung praxistauglich geworden sind, zeigen sich kooperative
Aspekte in Managementinstrumenten wie Preservation Policies unscharf oder
unterrepräsentiert. Die vorliegende Arbeit identifiziert in Top-Down- und Bottom-Up-Ansätzen kooperative Policy-Aspekte und formuliert sie als ergänzende Empfehlungen zu
bestehenden Best-Practice-Materialien des deutschen Kompetenznetzwerkes nestor.
Basierend auf den Vorarbeiten der Forschungsinititativen InterPARES,PLANETSund SCAPE
werden Möglichkeiten der Formalisierung von Preservation Policies aufgezeigt. Dazu zählt
die Übertragung strategischer Ziele in die Strategy Markup Language (StratML) sowie eine
Formalisierung von Policy-Elementen für den Einsatz in skalierbaren Preservation
Environments.
Methoden und Techniken der Informationsvisualisierung werden seit ungefähr zwanzig Jahren im Bereich der Informationssuche eingesetzt. In dieser Literaturstudie werden ausgewählte Visualisierungsanwendungen der letzten Jahre vorgestellt. Sie betreffen zum einen den Retrievalprozess, das Boolesche Retrieval, die facettierte Suche, Dokumentbeziehungen, die Zufallssuche und Ergebnisanzeige, zum anderen spezielle Anwendungen wie die kartenbasierte und adaptive Visualisierung, Zitationsnetzwerke und Wissensordnungen. Die Einsatzszenarien für Applikationen der Informationsvisualisierung sind vielfältig. Sie reichen von mobilen kleinformatigen Anwendungen bis zu großformatigen Darstellungen auf hochauflösenden Bildschirmen, von integrativen Arbeitsplätzen für den einzelnen Nutzer bis zur Nutzung interaktiver Oberflächen für das kollaborative Retrieval. Das Konzept der Blended Library wird
vorgestellt. Die Übertragbarkeit von Visualisierungsanwendungen auf Bibliothekskataloge wird im
Hinblick auf die Nutzung des Kataloginputs und des Angebots an Sucheinstiegen geprüft. Perspektivische Überlegungen zu zukünftigen Entwicklungsschritten von Bibliothekskatalogen
sowie zum Einfluss von Visualisierungsanwendungen auf die Informationspraxis werden angestellt.
Zunehmend viele Wissenschaftliche Bibliotheken unterstützen die Wissenschaftler ihrer Einrichtungen bei der Publikation von Artikeln als Gold Open Access, indem sie anfallende Publikationsgebühren, sogenannte Article Processing Charge (APC), für sie aus einem eigens eingerichteten Publikationsfond begleichen.
Die Zahl der zu bearbeitenden APC steigt stetig und das Modell der Finanzierung von Gold-Open-Access-Artikeln durch Artikelgebühren steht auch mit Blick auf das Ziel einer vollständigen Umstellung der wissenschaftlichen Publikationslandschaft auf Open Access im Fokus der Diskussionen. Aus diesem Grund müssen Bibliotheken für die Zukunft effiziente Methoden für das Management von APC entwickeln, das zurzeit häufig noch aus recht kleinteiligen manuellen Arbeitsschritten besteht. In dieser Arbeit werden verschiedene Wege der Optimierung der Administration von APC mit ihren Vor- und Nachteilen erörtert. Dazu gehören das Abschließen von Rahmenverträgen mit Verlagen, die Standardisierung und Optimierung von Metadaten, Artikel-Einreichungssystemen, Schnittstellen sowie dem Reporting. Diese erfolgt schwerpunktmäßig innerhalb der kooperativen Initiative INTACT, welche im Einzelnen vorgestellt wird. Darüber hinaus wird das Potenzial, das im Einsatz von APC-Management-Systemen liegt, näher beleuchtet. Die Arbeit zeigt, dass eine Verbesserung der Arbeitsprozesse nur durch eine Kooperation der verschiedenen Akteure im Bereich des wissenschaftlichen Publizierens, der Wissenschaftler, Verlage und Bibliotheken, gelingen kann.
Konzeption und Angebot zukünftiger Bibliotheksmanagementsysteme : Bestandsaufnahme und Analyse
(2011)
Der Bereich von Bibliothekssoftware für das Management interner Geschäftsabläufe steht vor strukturellen Veränderungen. Die aktuell in Bibliotheken eingesetzte Generation integrierter Bibliothekssysteme wird in den kommenden Jahren durch eine neue Generation von Bibliotheksmanagementsystemen abgelöst. Ziel dieser Arbeit ist es, durch eine Bestandsaufnahme von ausgewählten aktuell marktrelevanten und zukünftigen Bibliothekssystemen einen Überblick über die wesentlichen technischen und konzeptionellen Veränderungen zu geben, neue Installationsangebote und Datenhaltungskonzepte zu beleuchten und diese unter Berücksichtigung der Anwenderbedürfnisse zu analysieren. Dies geschieht auf Basis einer Anbieterbefragung, welche durch eine Befragung von Experten aus dem Anwenderkreis ergänzt wird, um zu einer anbieterunabhängigen bzw. anwenderorientierten Einordnung der Ergebnisse in den bibliothekarischen Gesamtkontext zu gelangen. Wesentliche Ergebnisse sind dabei, dass zukünftige Systeme Dienste und Daten in eine Cloudumgebung verlagern und über SAASAngebote zugänglich machen. Der funktionale Schwerpunkt liegt dabei auf der Gestaltung standardisierter und medientypunabhängiger Geschäftsabläufe. Weiter werden Plattformen zur Entwicklung zusätzlicher Services durch die Gemeinschaft angeboten. Durch die neue Technologie werden neue Datenhaltungskonzepte mit einem Ausbau der gemeinsamen Datennutzung ermöglicht. Die wesentlichen Problemfelder liegen dabei in der Klärung juristischer und
organisatorischer Fragen zu den Themen Datenhaltung, -schutz und -sicherheit. Ebenso muss die dauerhafte Zugänglichkeit zu Daten und Systemen gewahrt sein.
Methoden und Werkzeuge zum professionellen Umgang mit Forschungsdaten spielen
im wissenschaftspolitischen Diskurs seit einiger Zeit eine wesentliche Rolle. Adäquate
organisatorische und technische Lösungen ermöglichen die nachhaltige Sicherung,
Auffindbarkeit und Nachnutzung von Forschungsdaten. Relevante Akteure in diesem
Kontext sind neben Wissenschaftlerinnen und Wissenschaftlern, Rechenzentren und
Bibliotheken der Forschungseinrichtungen. Vielfach liegt der Fokus der Diskussion um
Forschungsdaten und Methoden des Forschungsdatenmanagements auf naturwissenschaftlichen
Disziplinen. Spezifika von Forschungsdaten der Geisteswissenschaften
divergieren jedoch substantiell von Beobachtungs- und Messdaten der Naturwissenschaften.
Diese Arbeit beschreibt einerseits beispielhaft geisteswissenschaftliche Forschungsdaten
und skizziert unterstützende Dienstleistungen wissenschaftlicher Bibliotheken
für den Forschungsprozess und die hierfür notwendigen Organisationsstrukturen.
Der immer schnellere voranschreitende technische Fortschritt zieht auch in der täglichen Arbeit der nationalen wissenschaftlichen Bibliotheken einen Strukturwandel mit sich. Besonders spürbar sind die Veränderungen bei der komplexen Verwaltung von erworbenen elektronischen Ressourcen, sprich Datenbanken, E-Journals oder E-Books. Vor allem im Bereich der konsortialen Arbeit und der dort stattfindenden Zusammenarbeit zwischen den wissenschaftlichen Bibliotheken und den bundesweit angesiedelten Konsortialstellen, existieren bisher noch keine adäquaten Abläufe beim Management der lizenzierten E-Ressourcen. Das Nachhalten aller relevanter LizenzInformationen, wie beispielsweise Kosten, Lizenz- und Archivzeiträume, Titellisten oder Nutzungsstatistiken, für die vielfältigen elektronischen Ressourcen wird immer komplexer und somit wird es schwieriger, die Ressourcen zentral und transparent zu verwalten. Als Lösung zur Schließung dieser momentan bestehenden Lücke der Verwaltung von E-Ressourcen im Konsortialbereich, wird das Electronic Resource Management System LAS:eR vorgestellt, welches speziell für das Management aller konsortialer Handlungsbedarfe im Bereich E-Ressourcen entwickelt wurde. Anhand von LAS:eR wird verdeutlicht, wie zukünftig die Workflows zwischen den deutschsprachigen Konsortialstellen und den nationalen wissenschaftlichen Bibliotheken deutlich optimiert werden können und dadurch bundesweit Veränderungen in der Konsortialarbeit angestoßen werden können.
Diese Masterarbeit vergleicht vier verschiedene Persistent Identifier Systeme (PI-Systeme) auf Grundlage von Kriterien systematisch miteinander. Dabei werden der Uniform Resource Name (URN) im Namensraum urn:nbn:de, das Handle-System, der Digital Object Identifier (DOI) und Archival Resource Key (ARK) für den Vergleich herangezogen. Persistent Identifier (PI) stehen im Gegensatz zu URLs speicherortunabhängig zur Verfügung und können somit dauerhaften Zugang zu digitalen Objekten gewährleisten, sodass diese nachhaltig zitierfähig sind. Als Grundlage für die Untersuchung wird der in der DIN 31646 enthaltene Kriterienkatalog verwendet. Dieser wurde mit dem Fokus auf die Langzeitarchivierung von Dokumenten erstellt. In diesem Zusammenhang sind einzelne Aspekte des Kataloges nicht oder nur sinngemäß auf einige der PI-Systeme anwendbar. Darüber hinaus ist die Funktionsweise von Resolver-Diensten von PI-Systemen ein zentraler Gesichtspunkt des Kriterienkataloges. Auf das ARK-System sind die diese Dienste betreffenden Merkmale nicht oder nur analog anwendbar, da es nicht auf dem Resolver-Prinzip beruht. Trotz dieser Einschränkungen kann ein umfassender Vergleich erfolgen. Im Wesentlichen sind alle vier PI-Systeme ausgereifte Methoden, um digitale Ressourcen dauerhaft nachzuweisen. Die zentralen Unterschiede ergeben sich vor allen Dingen aus den Zielsetzungen der PI-Systeme selbst. Bei der URN steht die Langzeitarchivierung der Ressourcen im Vordergrund. Damit erfüllt sie sie meisten Kriterien des Kataloges. Die drei anderen Systeme sind weniger auf eine Langzeitarchivierung der Objekte angelegt, als vielmehr auf einen dauerhaften Nachweis über festgeschriebene Metadatenschemen, die die PIs zitierfähig halten, selbst wenn das Objekt an sich nicht mehr existiert. Ferner gibt es Unterschiede in der technischen Umsetzung der PI-Systeme. Das Handle-System ist ein eigens entwickeltes System, worauf auch die DOI basiert. URN und ARK fußen auf der Nutzung des Domain-Name-Systems (DNS) und bauen auf ihr auf. Überdies unterscheiden sie sich in ihren Finanzierungsmodellen, wobei URN und ARK kostenfrei zur Verfügung stehen, dagegen die Nutzung von DOI und Handle mit Gebühren verbunden ist.
Historische Autorenbibliotheken bilden eine für die besitzenden Bibliotheken und die Forschung unschätzbare Quellengrundlage. Sie ermöglichen unter anderem die historische, sozio-kulturelle und intellektuelle Einordnung eines Autors und seines Werkes. Der Zugang zu den Autorenbibliotheken wird allerdings noch von mangelnder Erschließung, fehlender Auffindbarkeit und geringer Reichweite geprägt. Daher müssen Maßnahmen getroffen werden, die den Sammlungszusammenhang dokumentieren und die Inhalte zielgruppengerecht so präsentieren, dass regionale wie internationale Nutzergruppen von der Aufbereitung profitieren. Zu diesen Maßnahmen zählen die umfassende Katalogisierung auf Formalebene, Sachebene und Sammlungsebene mit der Verzeichnung der Provenienzen; außerdem die Entwicklung einer Digitalisierungsstrategie und die Bereitstellung der Metadaten, Bild- und Textdateien in einer virtuellen Forschungsumgebung. Die Arbeit behandelt die Rekonstruktion, die Erschließung und die Digitalisierung von Autorenbibliotheken. Anhand von Untersuchungen an bereits bestehenden digitalen Angeboten werden Handlungsempfehlungen zur Bereitstellung ausgearbeitet und weiterführende Schritte zur Aufbereitung angeregt. Dabei werden Instrumente der Digital Humanities ebenso berücksichtigt wie institutionsübergreifende Kooperationen und die Profilierungschancen für Bibliotheken als kulturelle Gedächtniseinrichtungen.
E-Books gewinnen für den Markt zunehmend an Bedeutung. Die Lesegewohnheiten verändern sich und für Bibliotheken wird es notwendig, funktionierende Ausleihsysteme für E-Books zu etablieren. Digitale Medien sind aufgrund ihrer Natur, im Hinblick auf illegale Vervielfältigung, besonders gefährdet. Digital Rights Management Systeme versprechen hier Abhilfe und sollen nicht nur unautorisierter Nutzung vorbeugen, sondern detaillierte Rechte und Nutzungsbedingungen durchsetzen können.
Am Beispiel der DiViBib Onleihe soll der praktische Einsatz von DRM bei EBooks
erläutert werden. Hierzu werden, neben einer generellen Einführung in hier relevante Themengebiete, Evaluationskriterien für DRM-Systeme erarbeitet und die DiViBib Onleihe nach diesen Kriterien bewertet. Ob DRM einen Mehrwert für Bibliotheken bietet und die Onleihe einen konventionellen Bestand ergänzen oder ersetzen kann sollen mögliche Betrachtungswinkel auf das System sein.
Neben der Erkenntnis, dass das DRM der Onleihe eine potenziell hohe Flexibilität besitzt, sich als gut integrierbar zeigt und eine hohe Interoperabilität aufweist, existieren datenschutz- und sicherheitstechnische Bedenken. Die derzeitige Umsetzung des DRM durch Adobe Systems zwingt in bestimmten Situationen zur Preisgabe personenbezogener Daten. Die Evaluation der Onleihe hat gezeigt, dass die eingesetzten DRM-Systeme von Adobe nicht als sicher angesehen werden können. Adobes DRM-Mechanismen sind reproduzierbar gebrochen worden und können somit Kernfunktionalitäten von DRM-Systemen im jetzigen Zustand nicht erfüllen.
Open Access beschreibt das Prinzip des ungehinderten, unentgeltlichen und freien Zugangs zu
wissenschaftlichen Informationen. Mit der Berliner Erklärung über den offenen Zugang zu
wissenschaftlichen Informationen wurde 2003 die Open-Access-Bewegung in Deutschland
initiiert. Seither unterzeichnen zahlreiche Universitäten und Forschungseinrichtungen die
Erklärung. Wie kann Open Access in einer wissenschaftlichen Institution etabliert werden?
Diese Masterarbeit widmet sich dem Thema exemplarisch an der Bundesanstalt für
Gewässerkunde (BfG). Für die BfG ist die Förderung von Open Access als
Ressortforschungseinrichtung des Bundes und in ihrer Funktion als nationales Daten- und
Berichtszentrum für Gewässer notwendig. Besonders die Gewässerkundliche Zentralbibliothek
hat als Behördenbibliothek die Aufgabe serviceorientierte Rahmenbedingungen für das Open-
Access-Publizieren aufzubauen und damit gleichzeitig die Publikationen der BfG frei
zugänglich anzubieten. Die vorliegende Arbeit hat daher ein empfehlendes Handlungskonzept
zum Umgang mit Open Access formuliert. Dazu werden die Open-Access-Bemühungen
anderer Ressortforschungseinrichtungen vergleichend analysiert und Best-Practice-Beispiele
für eine Strategie der BfG identifiziert. Auf der Grundlage dieser Analyse und den
Rahmenbedingungen der BfG wird ein Open-Access-Konzept vorgeschlagen und die
Möglichkeiten zur Förderungen des goldenen und des grünen Weges reflektiert. Insgesamt wird
besonders eine Informationsoffensive zu Open Access empfohlen, wozu mögliche
Dienstleistungen und Aufgaben für die Bibliothek zusammengestellt werden.
Hintergrund: Free/Libre/Open-Source Software (FLOSS) wird in zahlreichen Anwendungen des täglichen digitalen Lebens eingesetzt. Auch in Bibliotheken findet FLOSS immer öfter Anwendung. Jedoch existieren keine Untersuchungen zur Thematik, weder in einzelnen Aufsätzen noch in der einschlägigen Fachliteratur. Diese Studie versucht, sich der Erforschung dieses Bereichs anzunähern. Methoden: In dieser mit Methoden der qualitativen und quantitativen Forschung erstellten Studie wurden zunächst grundlegende Informationen zur Thematik erarbeitet, mit Hilfe einer Literaturanalyse der Forschungsstand zur Thematik dargelegt und die in Deutschland eingesetzte FLOSS vorgestellt. Anschließend wurden Interviews mit Experten aus Bibliotheken geführt und ausgewertet. Die Dimensionen dieser Interviews wurden mit Hilfe einer Online-Umfrage weiteren Experten aus Bibliotheken in Deutschland vorgelegt. Die abschließende Auswertung erfolgt mit Hilfe einer Triangulation der beiden Methoden. Ergebnisse: Die Studie belegt, dass FLOSS in zunehmendem Maße von wissenschaftlichen Bibliotheken in Deutschland eingesetzt wird. Kernbereich ist hierbei die Suchmaschinentechnologie. Es gibt Hinweise auf ein mögliches Defizit an Kooperation zwischen den Akteuren des Bibliothekswesens, wenngleich FLOSS und damit auch FLOSS-Ökosysteme als strategisches Konzept innerhalb der Personen auf der Ebene des Managements (Direktion, Bibliotheksleitungen) angekommen zu sein scheint. FLOSS stellt aus unterschiedlichen Gründen eine Herausforderung für die Bibliotheken dar. Weiter vermittelt die Studie einen Überblick über die momentan von wissenschaftlichen Bibliotheken in Deutschland eingesetzte FLOSS.
In einer immer weiter digitalisierten Welt, in der Smartphones und Tablets in unserem Alltag immer mehr an Bedeutung gewinnen, ist es wichtig, sich an diese neuen Situationen anzupassen. Davon bleiben auch Bibliotheken nicht verschont. Gerade Studenten legen immer mehr Wert auf einen komfortablen Umgang mit den Informationen, die eine Bibliothek bietet. Diese Entwicklung führte dazu, dass sich Hochschulbibliotheken mit mobilen Webseiten und Applikationen der Situation anpassen und den Nutzern neue Möglichkeiten anbieten mussten. In dieser Arbeit werden folglich anhand der Hochschulbibliotheken in Nordrhein-Westfalen die qualitativen Merkmale und deren Funktionalität überprüft. Im ersten Teil werden die Geschichte und Entwicklung der neueren mobilen Endgeräte erläutert und es wird auf mobile Webseiten und Applikationen näher eingegangen. Im zweiten Teil werden unter Berücksichtigung dieser Elemente die mobilen Webseiten und Applikationen der Hochschulen geprüft und beispielhaft vorgestellt.
Seit den 50er Jahren werden im Westdeutschen Rundfunk audiovisuelle Inhalte produziert. Zur weiteren Verwendung werden diese Inhalte im Videoarchiv aufbewahrt. Zur Speicherung dienen Magnetbänder, Filme und optische Datenträger. Seit einigen Jahren wird die Produktion auf filebasierte Arbeitsabläufe umgestellt. In diesen Abläufen sind physikalische Datenträger kontraproduktiv und die darauf enthaltenen Inhalte werden durch verschiedene Prozesse in Dateien umgewandelt. Diese Masterthesis geht der Frage nach, ob nach erfolgreicher Retrodigitalisierung die Originaldatenträger kassiert werden können. Zu diesem Zweck werden der Archivbestand und die Retrodigitalisierungsmaßnahmen vorgestellt. Das Ergebnis der Arbeit soll eine mögliche Herangehensweise an eine Kassation sein.
Die dauerhafte Archivierung digitaler Daten ist eine der großen Herausforderungen, die das
digitale Zeitalter mit sich bringt. Da ein bedeutender Anteil dieser Daten durch private
Nutzer erzeugt wird, deren Archivierungsbemühungen bisher in vielen Fällen ungeordnet
stattfinden und keinen verbindlichen Regeln folgen, ist die Überlieferung dieser Daten in
besonderem Maße gefährdet. Mit diesem Problem beschäftigt sich die in Deutschland noch
sehr junge Disziplin des Personal Digital Archiving. Der Forschungsvorsprung der USA auf
diesem Gebiet beträgt etwa 15 Jahre, es gibt dort neben einer jährlichen Konferenz bereits
eine Vielzahl von bibliothekarischen Veranstaltungen, die sich mit der Vermittlung von
Lösungsansätzen für diese Problematik befassen. Die vorliegende Arbeit versucht zu
ermitteln, welche Kompetenzen die Voraussetzung für das erfolgreiche Archivieren privater
Daten sind und inwiefern deutsche Bibliotheken durch die Adaption unterschiedlicher
Angebote aus dem US-amerikanischen Bibliotheksbereich zur Etablierung des Themas in
Deutschland und zur Sicherung der Überlieferung beitragen können.
Information literacy in secondary schools in England : challenges to implementing a teaching tool
(2017)
The skills required to become an information literate person should be taught and learned in schools from an early age on. The focus in schools lies in raising student attainment and being information literate has a positive impact on the attainment. However, the teaching of IL is often overlooked in English schools. This thesis introduces the English educational system as well as the National Curriculum and analyses the situation in English secondary schools with focus on the challenges that school librarians face when trying to provide learning opportunities to gain IL skills. Several different IL frameworks, models and standards are evaluated for their suitability as a practical teaching tool for school librarians and teachers. It is concluded that there is a need for an easy-to-use scheme that can be adopted in any secondary school in England and other countries with a similar school system. Building on the analysis of the literature a new Scheme for Teaching IL in English Secondary Schools (STILESS) as well as an exemplary lesson plan will be developed. STILESS and the lesson plan are not only a practical teaching tool but also a useful instrument to promote IL in general across schools with leadership, teachers and students.
Der Rat für Informationsinfrastrukturen hat 2016 Empfehlungen zu Strukturen und Prozessen von Forschungsdatenmanagement veröffentlicht. Anhand dieser Empfehlungen werden in der vorliegenden Arbeit Überlegungen getätigt, wie Informationsinfrastrukturen bestehende und zukünftige Aufgabenfelder von Forschungsdatenmanagement bewältigen und verbessern können. Um dieses besser zu veranschaulichen wird dieses beispielhaft an LIVIVO – Dem Suchportal von ZB MED und den Möglichkeiten dort Forschungsdaten nachzuweisen dargestellt. Dabei wird der Lebenszyklus von Forschungsdaten auf mögliche Aufgabengebiete von Informationsinfrastrukturen überprüft, beratende Tätigkeiten von Infrastruktureinrichtungen betrachtet und die deutsche Forschungslandschaft sowie Datenrepositorien identifiziert. Zudem werden Anknüpfungspunkte zum Nachweis von Forschungsdaten in LIVIVO in Form von persistenten Identifikatoren, Metadaten und (Programmierungs-)Schnittstellen erörtert.
Das Ziel der vorliegenden Masterarbeit ist es, zu evaluieren, in wieweit Open Access-Repositorien in NRW die ihnen übermittelten Dateien im Rahmen der digitalen Langzeitarchivierung (dLZA) in archivtauglichen Dateiformaten speichern. Dazu wird zunächst die Datenspeicherung in der dLZA besonders im Hinblick auf Dateiformate eingeordnet. Danach wird auf Grundlage der Level of Preservation (LoP) der National Digital Steward Alliance ein Fragebogen erstellt, welcher an 21 Repositorien in NRW verschickt wird. Neben der Auswertung des Fragebogens werden auch die Webseiten der Repositorien ausgewertet, um ein möglichst vollständiges Bild der Archivierungspraktiken zu erhalten. Keines der Repositorien kann alle Kriterien des LoP „Content“ erfüllen. Es stellte sich aber heraus, dass über die Hälfte der Repositorien zumindest Teile des Bestands für die dLZA an die Deutsche Nationalbibliothek weitergeben.
Diese Masterarbeit ist für alle interessant, die sich für die Speicherung von Daten in der dLZA und deren Umsetzung in der Praxis interessieren.as Ziel der vorliegenden Masterarbeit ist es, zu evaluieren, in wieweit Open Access-Repositorien in NRW die ihnen übermittelten Dateien im Rahmen der digitalen Langzeitarchivierung (dLZA) in archivtauglichen Dateiformaten speichern. Dazu wird zunächst die Datenspeicherung in der dLZA besonders im Hinblick auf Dateiformate eingeordnet. Danach wird auf Grundlage der Level of Preservation (LoP) der National Digital Steward Alliance ein Fragebogen erstellt, welcher an 21 Repositorien in NRW verschickt wird. Neben der Auswertung des Fragebogens werden auch die Webseiten der Repositorien ausgewertet, um ein möglichst vollständiges Bild der Archivierungspraktiken zu erhalten. Keines der Repositorien kann alle
Kriterien des LoP „Content“ erfüllen. Es stellte sich aber heraus, dass über die Hälfte der Repositorien zumindest Teile des Bestands für die dLZA an die Deutsche Nationalbibliothek weitergeben.
Diese Masterarbeit ist für alle interessant, die sich für die Speicherung von Daten in der dLZA und deren Umsetzung in der Praxis interessieren.
Gegenstand der hier vorgestellten Arbeit ist die IT-Sicherheitsbewertung integrierter Bibliotheksmanagementsysteme am Beispiel des an der Stadtbibliothek Köln eingesetzten Systems Concerto. Es werden grundlegende Merkmale von Bibliotheksmanagementsystemen sowie IT-Sicherheit behandelt. Ausgehend von den Sicherheitsstandards des BSI wird abhängig organisatorischer Gegebenheiten ein Prozess für die Bewertung des Bibliothekssystems Concerto entworfen und die Durchführung exemplarisch skizziert. Ein Zeit-Maßnahmenplan für die Umsetzung wird definiert.
Die zunehmende Nutzung des mobilen Internets stellt an bibliothekarische Rechercheportale neue Anforderungen. Das Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) sieht deshalb die Notwendigkeit, das vom hbz betriebene Bibliotheksportal „Digitale Bibliothek (DigiBib)“ in einer mobilen, für die Nutzung über Smartphone und Tablet-PC geeigneten Variante anzubieten. Ziel der vorliegenden Arbeit ist es, inhaltliche und funktionale Anforderungen für die mobile DigiBib zu formulieren unter Berücksichtigung der Usability. Hierfür wurde der aktuelle Forschungsstand zum mobilen Internet, zur Usability und zu mobilen Bibliotheksanwendungen ermittelt sowie eine quantitative Online-Umfrage unter DigiBib-Nutzern durchgeführt. Ergebnis ist, dass eine mobile DigiBib vorrangig über ein Android- oder iOS-Smartphone genutzt würde. Wichtigstes Anwendungsszenario ist die Suche nach einem bestimmten Titel, dicht gefolgt von der thematischen Suche. Hierfür sollten sowohl Einfeld- als auch Erweiterte Suche angeboten werden. Die Reduzierung von Texteingaben durch Voreinstellungen und eine dynamische Ergänzung der Suchbegriffe sowie Exportmöglichkeiten zur Weiterverarbeitung der Suchergebnisse sind wichtige Usability Anforderungen. In Verbindung mit der Verfügbarkeitsrecherche sollte die standortbezogene
Lokalisierung der besitzenden Bibliotheken integriert werden. Auch die Online-Fernleihe mit Bestellung und Kontoabfrage ist für die mobile Nutzung relevant, weniger wichtig sind dagegen die Links zu Datenbanken und eJournals. Wegen begrenzter Ressourcen und zur Erreichung einer Plattformunabhängigkeit sollte die mobile DigiBib als Web-Anwendung entwickelt werden. Einzig die aus Nutzersicht wünschenswerte Realisierung der ISBN-Barcode-Suche würde eine native Applikation erfordern. Sie wird für eine nachrangige Entwicklung vorgeschlagen.
Die vorliegende Bachelorarbeit beschäftigt sich mit dem Usability-Test eines Video-Tutorials der Universitätsbibliothek Kaiserslautern. Die UB Kaiserslautern bietet auf ihrer Website ein Video-Tutorial an, das die Funktionen und die Benutzung des Katalogs der UB vermittelt. Damit wird eine Hilfe für Bibliotheksnutzer, die mit der sachgemäßen Nutzung des Bibliothekskatalogs überhaupt nicht oder weniger vertraut sind, zur Verfügung gestellt. Der Katalog der UB Kaiserslautern soll auf eine aktuellere Version umgestellt werden, womit eine Änderung der Katalogoberfläche einhergeht. Daher müsste auch das Video-Tutorial überarbeitet werden. Für die Überarbeitung des Tutorials stellt sich auch die Frage, ob und wie das Tutorial optimiert werden kann. Eine Evaluation des Video-Tutorials kann in diesem Kontext Aufschluss darüber geben, ob und inwiefern Optimierungspotenzial für das Tutorial besteht. Hierzu wurde im Rahmen dieser Bachelorarbeit, aber unabhängig von möglichen Aktivitäten zur Überarbeitung des Video-Tutorials durch die UB Kaiserslautern, ein Usability-Test mit neun Probanden an der TH Köln durchgeführt, um mögliche Schwächen des Video-Tutorials hinsichtlich Auffindbarkeit innerhalb der UB-Website sowie Benutzerfreundlichkeit und Lernwirksamkeit zu evaluieren. Anhand der durch den Usability-Test aufgedeckten Schwächen werden schließlich Möglichkeiten aufgezeigt, wie das Video-Tutorial verbessert werden kann.
Digitale Repositorien – ob institutionell oder fachspezifisch – als Infrastrukturen für die Speicherung und Verfügbarmachung des wissenschaftlichen Outputs stellen seit ihren Anfängen vor über zwei Jahrzehnten eine zentrale Säule für die Wissens- und Erkenntnisproduktion dar und sind in der sich rapide ändernden Welt der wissenschaftlichen Kommunikation heutzutage nicht mehr wegzudenken. Die ersten institutionellen Repositorien, die von Universitätsbibliotheken angeboten wurden, galten der klassischen Forschungsliteratur (z.B. Journal Artikel) und anderen hauptsächlich textuellen wissenschaftlichen Beiträgen (z.B.WorkingPapers). Somit haben sich wissenschaftliche Bibliotheken von Anfang an – durch die Bereitstellung von zentralen Infrastrukturen – eine prominente Rolle bei der Sammlung, Speicherung und der Sicherstellung eines offenen Zugangs zu Forschung gesichert. Durch den kontinuierlichen Wandel der Forschungspraxen sind digitale Repositorien heute mehr denn je vor neue Herausforderungen gestellt. Durch die neu entstandenen datengetriebenen Wissenschaften und durch die stark voranschreitende Digitalisierung in Wissenschaft haben sich die Produkte der Forschung von textbasierten zu komplexen Datentypen, wie unstrukturierten Daten, Datenbanken, Multimedia-Objekten oder Digitalisaten gewandelt. Akademische Bibliotheken, die bereits eine Reihe von Basisfunktionalitäten für Forschungsdaten anbieten (z.B. PID-Vergabe, Datenpublikation oder Verknüpfung von Forschungsliteratur mit Daten) sind dennoch mit einer Fülle von technischen und organisatorischen Herausforderungen konfrontiert. Auch ergeben sich durch das schnelle Wachstum der Datenmengen, der kontinuierlichen Ausdifferenzierung der Datentypen und der Komplexität ihrer Zusammenstellung für digitale Repositorien neue Anforderungen an Metadaten, Discovery, Visualisierung oder Langfristspeicherung. Zusätzlich verschärfen Forschungsförderer und wissenschaftspolitische Gremien ihre Anforderungen an die Qualitätssicherung in der Forschung. Für Repositorien hat dies zur Folge, dass sie ihre Vertrauenswürdigkeit im Rahmen der Zertifizierung darlegen müssen und auch aktuell durch die im Jahr 2017 eingeführten FAIR Data Principles als „Framework“ für ein systematisches und nachhaltiges Datenmanagement, ihre Mission, Organisation und Technik an die neuen Gegebenheiten anpassen müssen. Die FAIR Data Principles, welche mittlerweile einen defacto-Standard des qualitätsbewussten Datenmanagements darstellen, verlangen nämlich, dass das Datenmanagement ständig darauf ausgerichtet sein soll, dass Forschungsdaten findable (auffindbar), accessible (zugänglich), interoperable (interoperabel) und reusable (nachnutzbar) gemacht werden und dauerhaft bleiben. Für die Umsetzung von FAIR im Kontext eines institutionellen Repositoriums spielen sowohl informationstechnologische, organisatorische und disziplinspezifische Aspekte eine Rolle. In dieser Masterarbeit wird der aktuelle Stand, die heutigen Herausforderungen und Anforderungen und schließlich die Möglichkeiten der Umsetzung der FAIR Data Principles in institutionellen Repositorien qualitativ anhand von Praxisbeispielen untersucht. Die disziplinspezifischen Anforderungen, vor allem in Bezug auf Open Science und Reproduzierbarkeit werden exemplarisch anhand von zwei – bewusst ausgesuchten stark datengetriebenen Fachdisziplinen – den Digital Humanities und den Computational Economics analysiert und dargelegt. In Kombination mit einer qualitativen Evaluation des institutionellen Repositoriums der Universität Bielefeld in Bezug auf FAIR Principles, ergibt sich ein großflächiges Bild über die Anforderungen, mögliche Umsetzungen und Grenzen von IRs. Basierend darauf, werden in dieser Arbeit Empfehlungen für ein FAIRes institutionelles Repositorium ausgesprochen.
Die vorliegende Bachelorarbeit befasst sich mit der zukunftsfähigen Bereitstel-
lung von Filmbeständen. Da immer häufiger Filme nur noch trägerungebunden
erworben werden können, stehen Bibliotheken vor der Frage, wie sie diese für
die Benutzung zur Verfügung stellen können. Deshalb werden für die Universi-
tätsbibliothek der Kunstuniversität Linz (Österreich) Elemente eines Konzeptes
zur Bereitstellung von trägerungebundenem Filmmaterial entwickelt. Um den ak-
tuellen Stand zu ermitteln, wird eine vergleichende Bestandsaufnahme durchge-
führt. Auf Grundlage dieser werden rechtliche und technische Herausforderun-
gen aufgezeigt und mögliche Lösungsansätze formuliert.
Die FAIR-Prinzipien setzen sich seit ihrer Formulierung im Jahr 2016 immer mehr durch. Ihr Ziel ist, die Nachnutzbarkeit von Forschungsdaten sicherzustellen, allerdings sind es nur Leitlinien, die fachlich ausgelegt werden müssen. Wissenschaftliche digitale Editionen, die hier als Daten-Community verstanden werden, kämpfen vermehrt mit dem Problem der Nachhaltigkeit. Es wird daher untersucht, inwiefern die FAIR-Prinzipien als Leitlinien für digitale Editionen herangezogen werden können. Hierbei werden sowohl die zugrunde liegenden Daten als auch die Software in der Analyse berücksichtigt. Es zeigt sich, dass alle Facetten der Prinzipien bereits unter anderem Namen diskutiert werden, die FAIR-Prinzipien dennoch als Leitlinien für zukünftige Entwicklungen produktiv herangezogen werden können.
Die vorliegende Arbeit untersucht die Möglichkeiten von medizinischen Bibliotheken Wissenschaftler im Publikationsprozess zu unterstützen. Dafür wurde der Unterstützungsbedarf anhand von Leitfadeninterviews mit Professoren, Postdocs und Doktoranden exemplarisch an der Universitätsmedizin Leipzig ermittelt.
Innerhalb der Befragungen wurde neben den individuellen Herausforderungen der Wissenschaftler auch nach den Wünschen an die Bibliothek, sowie der optimalen Zugänglichkeit der Services gefragt. Darüber hinaus wurde untersucht, wie bekannt bereits bestehende Angebote der Universitätsbibliothek (z.B. Publikationsfonds und Forschungsdatenmanagement) sind. Eine Recherche zu Best Practice Beispielen weltweit gibt Anregungen, wie die Bedürfnisse der Wissenschaftler umgesetzt werden könnten.
Die aktuellen Angebote konnten mit den Erwartungen der Wissenschaftler abgeglichen und damit Defizite identifiziert werden. Die Ergebnisse dieser kombinierten Methode erlauben Rückschlüsse auf die aktive Weiterentwicklung der Bibliothek auf dem Gebiet der publikationsunterstützenden Dienstleistungen.