Refine
Year of publication
Document Type
- Master's Thesis (125) (remove)
Has Fulltext
- no (125) (remove)
Keywords
- Digitalisierung (7)
- Informationskompetenz (5)
- Wissenschaftliche Bibliothek (5)
- Social Media (4)
- Öffentliche Bibliothek (4)
- E-Learning (3)
- Elektronische Medien (3)
- Medienkompetenz (3)
- Nachhaltigkeit (3)
- Open Access (3)
Das Hochschulwesen und die Studienlandschaft in Deutschland haben sich in den letzten Jahren verändert, neue Zielgruppen mit neuen Informationsbedürfnissen sind entstanden. Wissenschaftliche Bibliotheken in ihrer Funktion als Informationsdienstleister reagieren auf diese Veränderungen und müssen ihre Informationsangebote und -services neuen Bedarfen anpassen.
Duale Studenten sind eine in den letzten Jahren rasant gewachsene neue Zielgruppe auf dem deutschen Hochschulmarkt. Sie absolvieren ein Studium, dessen zentrale Kennzeichen die enge Verzahnung von wissenschaftlicher Lehre an der Hochschule und praxisorientierter Ausbildung in einem Unternehmen sind. Ein duales Studium findet an zwei verschiedenen Ausbildungsorten statt, der Hochschule und dem Unternehmen. Wissenschaftliche Bibliotheken in ihrer Funktion als Informationsdienstleister stehen demnach vor der Aufgabe, Studenten dieser spezifischen Studienform bedarfsgerecht an beiden Studienorten mit Fachinformationen zu versorgen.
Vorliegende Arbeit setzt sich zum Ziel, die Informationsbedarfe dualer Studenten durch eine Informationsbedarfsanalyse zu ermitteln, um die bibliothekarischen Dienstleistungen der Bibliotheken passgenauer und besser auf die Bedürfnisse dieser spezifischen Zielgruppe ausrichten zu können. Im Mittelpunkt stehen dabei gleichermaßen das Medienangebot und Portfolio verschiedener Informationsdienstleistungen wie auch die optimale Gestaltung der Zugänglichkeit zu diesen. Am Beispiel der Dualen Hochschule Baden-Württemberg (DHBW), einem der größten Anbieter dualer Studiengänge in Deutschland, wurden Lehrende und Studenten in zwei standardisierten anonymisierten Online-Umfragen zu Informationsbedarfen im dualen Studium befragt.
Das Thema Marketing hat in den vergangenen Jahren verstärkt auch in Bibliothekseinrichtungen Einzug gehalten. Marketing-Management-Prozesse werden eingesetzt, um die Angebote und Dienstleistungen auf den Kunden auszurichten und die angebotenen Services entsprechend zu vermarkten. Die vorliegende Arbeit analysiert die Dienstleistungen der Bibliotheken der KPMG AG unter Aspekten des theoretischen und praktischen Informationsmarketings. Der theoretische Teil der Arbeit erläutert die einzelnen Phasen eines Marketing-Management-Prozesses, wobei Beispiele auf ihre Anwendbarkeit im Bibliothekswesen gegeben werden. Im praktischen Teil der Arbeit wird der Marketing-Management-Prozess auf die Gegebenheiten der Bibliotheken der KPMG AG und deren Dienstleistungen angewandt. Als Ergebnis aus der Analyse und der Bearbeitung der einzelnen Prozessphasen werden Maßnahmen genannt, die notwendig sind, um die Dienstleistungen der KPMG-Bibliotheken optimal gestalten und auf den Kunden ausrichten zu können.
Diese Masterarbeit vergleicht vier verschiedene Persistent Identifier Systeme (PI-Systeme) auf Grundlage von Kriterien systematisch miteinander. Dabei werden der Uniform Resource Name (URN) im Namensraum urn:nbn:de, das Handle-System, der Digital Object Identifier (DOI) und Archival Resource Key (ARK) für den Vergleich herangezogen. Persistent Identifier (PI) stehen im Gegensatz zu URLs speicherortunabhängig zur Verfügung und können somit dauerhaften Zugang zu digitalen Objekten gewährleisten, sodass diese nachhaltig zitierfähig sind. Als Grundlage für die Untersuchung wird der in der DIN 31646 enthaltene Kriterienkatalog verwendet. Dieser wurde mit dem Fokus auf die Langzeitarchivierung von Dokumenten erstellt. In diesem Zusammenhang sind einzelne Aspekte des Kataloges nicht oder nur sinngemäß auf einige der PI-Systeme anwendbar. Darüber hinaus ist die Funktionsweise von Resolver-Diensten von PI-Systemen ein zentraler Gesichtspunkt des Kriterienkataloges. Auf das ARK-System sind die diese Dienste betreffenden Merkmale nicht oder nur analog anwendbar, da es nicht auf dem Resolver-Prinzip beruht. Trotz dieser Einschränkungen kann ein umfassender Vergleich erfolgen. Im Wesentlichen sind alle vier PI-Systeme ausgereifte Methoden, um digitale Ressourcen dauerhaft nachzuweisen. Die zentralen Unterschiede ergeben sich vor allen Dingen aus den Zielsetzungen der PI-Systeme selbst. Bei der URN steht die Langzeitarchivierung der Ressourcen im Vordergrund. Damit erfüllt sie sie meisten Kriterien des Kataloges. Die drei anderen Systeme sind weniger auf eine Langzeitarchivierung der Objekte angelegt, als vielmehr auf einen dauerhaften Nachweis über festgeschriebene Metadatenschemen, die die PIs zitierfähig halten, selbst wenn das Objekt an sich nicht mehr existiert. Ferner gibt es Unterschiede in der technischen Umsetzung der PI-Systeme. Das Handle-System ist ein eigens entwickeltes System, worauf auch die DOI basiert. URN und ARK fußen auf der Nutzung des Domain-Name-Systems (DNS) und bauen auf ihr auf. Überdies unterscheiden sie sich in ihren Finanzierungsmodellen, wobei URN und ARK kostenfrei zur Verfügung stehen, dagegen die Nutzung von DOI und Handle mit Gebühren verbunden ist.
Die Wiederauffindung von Personen und deren Werke im Bereich der Naturwissenschaften durch Suchmaschinen, Repositorien, Internetplattformen und Bibliothekskataloge gestaltet sich für Naturwissenschaftler und Bibliotheken oft mühselig und zeitaufwendig. Als eine Ursache dafür wird die Verkürzung der Vornamen zu Initialen in Literaturangaben, Datensammlungen, Bibliothekskatalogen und sonstigen Autorenlisten angesehen, wie diese Arbeit anhand einer Erhebung im Fachpublikum nachweist. Die von Bibliotheken durchgeführten Individualisierungen, die auf den Functional Requirements for Authority Data (FRAD) beruhen, sollen diese Ursache beseitigen. Ob dieser Ansatz tatsächlich auch den Anforderungen von Naturwissenschaftlern an Personennamendatensätzen in Personennamendatenbanken entspricht, wird ebenfalls anhand der Interviewergebnisse erörtert. Als Ergebnis wird festgestellt, dass die Anforderungen der Naturwissenschaftler durch eine strenge Auslegung der Empfehlungen der FRAD weitgehend erfüllt sind. Jedoch sollten sie auch auf die Erfassung unselbstständiger Werke angewendet werden.
Das Goethe-Museum in Düsseldorf wurde 1953 auf Basis der privaten Goethe-Sammlung des Verlegers und Inhabers des Insel Verlags in Leipzig, Anton Kippenberg (1874-1950), gegründet. Die Entstehung dieser größten in privater Hand befindlichen Goethe-Sammlung aus Originalzeugnissen der Goethezeit wird durch eine Sondersammlung aus der ersten Hälfte des 20. Jahrhunderts dokumentiert, die seit vielen Jahren zum Bestand des Goethe-Museums gehört. Im Zuge einer Neuordnung wurde diese nicht erschlossene Sondersammlung als Teilsammlung in die wissenschaftliche Spezialbibliothek des Goethe-Museums eingegliedert. Die Arbeit zeichnet die Aufarbeitung dieser Sondersammlung nach. Nach der Bestandsaufnahme, einer Neuordnung und Beschreibung der in ihr enthaltenen Materialien folgt eine Analyse anhand einzelner Kriterien. Vorgestellt wird anschließend das Portal, mit dem die Sondersammlung erschlossen und sichtbar gemacht werden soll. Im letzten Kapitel wird beschrieben, welche Bedeutung die Sondersammlung für das Goethe-Museum hat, welcher Erkenntniswert heute daraus gezogen werden kann und welche Perspektiven sich durch die Nutzung ergeben.
Text Mining bietet die Möglichkeit, große Textmengen durch automatisierte Verfahren zu analysieren. Die vorliegende Arbeit beschäftigt sich mit der Anwendung und Evaluation solcher Methoden für die spezielle Textform freier Antworten aus Mitarbeiterbefragungen. Dabei werden verschiedene Techniken aus den drei Bereichen Phrasenextraktion, Sentimentanalyse und Kategorisierung dargestellt und an einer konkreten Umfrage angewendet. Die Ergebnisse werden jeweils durch Abgleich mit manuellen Ergebnissen bzw. durch manuelle Bewertungen evaluiert und die Resultate untereinander verglichen. Die genutzten Verfahren sollten ohne spezifische Trainingsdaten oder Projektinformationen anwendbar sein und sich somit auch für andere Mitarbeiterbefragungen eignen.
Die Phrasenextraktion wird auf drei verschiedene Weisen durchgeführt, wobei Part-of-Speech (POS)-Chunking, Stoppwortbegrenzung und Kookkurrenzen genutzt werden. Die Untersuchungen zeigen, dass mit dem POS-Chunking präziser die relevantesten Phrasen aus längeren Texten ermittelt werden können. Die Methode der Stoppwortbegrenzung extrahiert dagegen eine größere Vielfalt relevanter Phrasen auch aus kürzeren Texten. Manuelle Einschätzungen der Extraktionsergebnisse bewerten die Methode mit POS-Chunking am besten. Darüber hinaus wird eine automatisierte Zusammenfassung semantisch ähnlicher Phrasen durchgeführt, wodurch sich leichte Verbesserungen einiger Evaluationsergebnisse zeigten.
Für die Sentimentanalyse der freien Antworten wird eine Erweiterung eines bestehenden Verfahrens aus dem Social Media-Bereich dargestellt. Hierzu werden der Methode vier Regeln hinzugefügt, welche die Sentimentbewertung aufgrund bestimmter Syntaxformen in den freien Antworten verändern. Die Evaluation zeigt, dass drei der vier Regeln dazu beitragen, dass sich die automatisierte Bewertung manuellen Bewertungen annähert.
Die Kategorisierung wird durch die beiden Topic Modeling-Methoden Latent Dirichlet Allocation (LDA) und Non-negative Matrix Factorization (NMF) durchgeführt. NMF erreichte bei dem Abgleich mit einer manuellen Kategorisierung höhere Übereinstimmungen und zeichnete sich auch durch eine bessere Abgrenzung der Thematiken sowie eine bessere Interpretierbarkeit aus.
Die Text Mining-Methoden und deren Evaluationen werden für diese Arbeit in der Programmiersprache Python umgesetzt. Außerdem werden die Text Mining-Resultate in die Datenvisualisierungssoftware Tableau eingebunden.
In der vorliegenden Arbeit wird ein Einblick in Eignung und Unterschiede verschiedener Text Mining-Methoden in Bezug auf freie Antworten in Mitarbeiterbefragungen gegeben. Darüber hinaus wird dargestellt, dass auch spezifische Anpassungen an diese Textform möglich sind. Zusätzlich werden diverse Optimierungsansätze aufgezeigt, die den noch großen Weiterentwicklungsbedarf in diesem Bereich verdeutlichen.
Aufbau einer deutschsprachigen Community für das Bibliotheksmanagementsystem FOLIO : ein Konzept
(2017)
Seit dem Jahr 2016 evaluieren das Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) und die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG/GBV) in einem gemeinsamen Projekt das Open-Source-System FOLIO. Das Ziel ist, qualifizierte Aussagen zur funktionalen und technischen Eignung von FOLIO für den deutschsprachigen Raum zu treffen. Die Kommunikation sowie Wissensvermittlung während der Entwicklung und der Tests von FOLIO erfolgt, wie in Open-Source-Systemen üblich, primär über die Community des Systems. Allerdings ist die FOLIO-Community aus den USA für die deutschen Interessen meist nicht der adäquate Ansprechpartner, da sich die Bedürfnisse der deutschen Bibliotheken von denen in den USA unterscheiden und nur einen kleinen Teil der großen Gemeinschaft betreffen. Die Entwicklung einer FOLIO-Community für den deutschsprachigen Raum bietet Bibliotheken, die FOLIO zukünftig einsetzen werden, einen Ort, um ihre Bedürfnisse, Anliegen und Probleme zu diskutieren. Aus diesem Grund stellt die Arbeit in und mit einer eigens für Deutschland eingerichteten FOLIO-Community einen wesentlichen Aspekt im FOLIO-Entwicklungsprojekt von hbz und VZG des Projekts dar.
Ziel der vorliegenden Arbeit ist, Rahmenbedingungen sowie Faktoren für einen erfolg-reichen Aufbau und einer dauerhaften Etablierung der deutschsprachigen FOLIO-Community zu identifizieren und zu eruieren, welche Tools benötigt werden, um die Community für die Nutzer attraktiv und bedienungsfreundlich zu gestalten. Hierzu werden bereits vorhandene Communitys im Bereich des Bibliothekswesens, ausgehend von den Handlungsempfehlungen von Amy Jo Kim, Sandra Schaffert sowie Diana Wieden-Bischof, verglichen. Als Referenzmodelle dienen die Communitys des Open Source-Systems Koha, die Kuali OLE-Community sowie die FOLIO-Community aus den USA. Durch den Vergleich werden die Unterschiede sowie die Gemeinsamkeiten der einzelnen Communitys herausgearbeitet, um die gesammelten Erkenntnisse in die Konzeptentwicklung für eine deutschsprachige FOLIO-Community einfließen zu lassen.
Die Gewöhnung der Internetnutzer an den einzelnen Suchschlitz bei Google stellt Bibliotheken vor eine neue Herausforderung. Ihre Recherchewerkzeuge sind vergleichsweise kompliziert aufgebaut und für die jüngeren Internetnutzer zunehmend unattraktiv in ihrer Anwendung. Die Lösung scheint in Discovery-Systemen zu liegen, nicht nur aufgrund größerer inhaltlicher Angebote, sondern auch hinsichtlich ihrer Anwendung mit nur einem Suchschlitz. Die Bayerische Staatsbibliothek (BSB) stellt eine Teillösung bereit. Ihr Discovery-System Primo Central der Firma ExLibris bietet die Suche sowohl über mehrere Suchparameter als auch über einen Suchschlitz an. Die Suchergebnisse präsentiert es in drei Reitern, zusätzlich verfügt es über die Möglichkeit zu selektieren. Ziel der folgenden Arbeit ist die Prüfung der Usability des Discovery-Systems der Bay-erischen Staatsbibliothek anhand von zwei Tests, der Heuristischen Evaluation und des nutzerorientierten Usability-Tests sowie die Zusammenführung der daraus entstehenden Erkenntnisse. Es kristallisiert sich heraus, dass die neue Form der Suche in vielen Teilen attraktiv ist, jedoch Mängel hinsichtlich der Benutzerfreundlichkeit offensichtlich sind. Das im Pilotbetrieb an der BSB gestartete System Yewno Discover ist ebenfalls Bestandteil der Usability-Prüfung und zeigt sich als sinnvolle Ergänzung der aktuellen Suchsysteme.
Die Technische Hochschule Köln betreibt derzeit drei Repositorien. Die inhaltliche Verwaltung
von Cologne Open Science und ePublications wird von der Hochschulbibliothek
vorgenommen; PubLIS Cologne hingegen vom Institut für Informationswissenschaft.
COS wurde mit dem DINI-Zertifikat 2013 ausgezeichnet. Doch das aktuellere DINI-Zertifikat
aus dem Jahre 2016 stellt neue Mindestanforderungen an Repositorien. Diese Arbeit
untersucht, welche Veränderungen an den Repositorien vorgenommen werden
müssten, um das aktuelle DINI-Zertifikat 2016 zu erhalten und gibt weitere Empfehlungen,
wie die TH Köln ihre Repositorien zukunftsweisend ausbauen sollte.