Refine
Year of publication
- 2017 (28) (remove)
Document Type
- Master's Thesis (28) (remove)
Keywords
- Digitalisierung (4)
- Bestandsmanagement (2)
- Bibliothekssystem (2)
- Informationskompetenz (2)
- Kooperation (2)
- Marktforschung (2)
- Unternehmensbibliothek (2)
- Öffentliche Bibliothek (2)
- AMP (1)
- Accelerated Mobile Pages (1)
- Altmetrics (1)
- Altmetrics-Dienste (1)
- Anforderung (1)
- Archiv (1)
- Autograf (1)
- Autorenbibliothek (1)
- Autosuggestion (1)
- Behördenbibliothek (1)
- Benutzungsordnung (1)
- Bestandspflege (1)
- Bibliometrie (1)
- Bibliothek (1)
- Bibliothekarische Dienstleistung (1)
- Bibliotheksdidaktik (1)
- Bibliothekskatalog (1)
- Bibliotheksordnung (1)
- Bibliotheksrekonstruktion (1)
- Bildpostkarte (1)
- Bistum Paderborn (1)
- Born-Digital-Datei (1)
- Brief (1)
- Computerforensik (1)
- Corporate Library (1)
- Data Mining (1)
- Deutsches Reich (1)
- Digitale Infrastruktur (1)
- Digitale Revolution (1)
- Discovery (1)
- Discovery-System (1)
- Dublin Core (1)
- Dynamische Ordnung (1)
- E-Learning (1)
- Elasticsearch , Solr (1)
- England (1)
- Erlebnismarketing (1)
- Ernst Schnabel (1)
- Erweiterte Realität <Informatik> (1)
- Explorer for Academic Librarians (1)
- FOLIO (1)
- Fachliteratur (1)
- Fachreferent (1)
- Fernsehen (1)
- Gemeinschaft (1)
- Geschichte (1895- 1934) (1)
- Gesundheitskompetenz (1)
- Google (1)
- Identifikation (1)
- Informatisierung (1)
- Kassation (1)
- Katholische Kirche (1)
- Koha (1)
- Kollaboration (1)
- Kommunikationspolitik (1)
- Kuali OLE (1)
- Kuba (1)
- Kunstbibliothek (1)
- Landesbibliothek (1)
- Landesbibliothekszentrum Rheinland-Pfalz (1)
- Lean Library (1)
- Lean Management (1)
- Learning tools (1)
- Lemmatisierung (1)
- Lorenz Jaeger (1)
- Makerspace (1)
- Marketinginstrument (1)
- Marktanalyse (1)
- Massendaten (1)
- Medienforschung (1)
- Metadaten (1)
- Mitarbeiterbefragung (1)
- NGS (1)
- Nachlass (1)
- Next Generation System (1)
- One Person Libraries (OPL) (1)
- Open Access (1)
- Organisationsentwicklung (1)
- PLOS Article-Level Metrics Reports (1)
- Partizipation (1)
- Personalisierung (1)
- Pflichtenheft (1)
- Phrasenextraktion (1)
- Politik (1)
- Portfoliomanagement (1)
- Postkarte (1)
- Process Efficiency (1)
- Prozessoptimierung (1)
- Recherche (1)
- Retrodigitalisierung (1)
- Sammlungserschließung (1)
- Schlanke Bibliothek (1)
- School librarian (1)
- Schulbibliothekare (1)
- Screencast (1)
- Sentimentanalyse (1)
- Significant Properties (1)
- Smartphone (1)
- Stadtentwicklung (1)
- Suchmaschine (1)
- Suchmaschinenoptimierung (1)
- Technische Universität Kaiserslautern (1)
- Text Mining (1)
- Thomas Strittmatter (1)
- Transdisziplinarität (1)
- Umfrage (1)
- Universität zu Köln (1)
- Universitätsbibliothek (1)
- Universitätsbibliothek Kaiserslautern (1)
- Unterricht (1)
- Urbaner Gartenbau (1)
- Veröffentlichung (1)
- Virtuelle Forschungsumgebung (1)
- Virtuelle Realität (1)
- Walter Erich Richartz (1)
- Webanwendung (1)
- Weiterführende Schule (1)
- Wissenschaftliche Bibliothek (1)
- World Wide Web 2.0 (1)
- alternative Metriken (1)
- app-based research (1)
- contingency analysis (1)
- cooperation (1)
- eHealth Literacy (1)
- functional one-track system (1)
- funktionale Einschichtigkeit (1)
- grüne Bibliothek (1)
- lemmatisation (1)
- library system (1)
- mobile Website (1)
- mobile devices (1)
- motivation structure (1)
- organizational development (1)
- school system (1)
- search engines (1)
- survey situation (1)
- teaching (1)
- teaching tool (1)
- text categorisation (1)
- wissenschaftliche Spezialbibliothek (1)
Analysing the systematics of search engine autocompletion functions by means of data mining methods
(2017)
In the internet era, the information that can be found about politicians online can influence
events such as the results of elections. Research has shown that biased search rankings can
shift the voting preferences of undecided voters. This shows the importance of studying
online search behaviour, especially in the pre-elections phase, when search results can
have a particular influence on the future political scene of a country.
This master thesis aimed to study the behaviour of online search engines in a period before
the German federal election in 2017. The aim was to ascertain if there is any pattern to be
found in the auto-suggestions for searches related to politicians.
In order to gather data for this experiment, a crawler browsed search engine web pages,
input a name and a surname of a politician, and saved that together with all autosuggestions
from the search engine. The autosuggestions were prepared for the analysis and
divided into semantic groups with the help of clustering algorithms.
Different statistical methods, such as correlation analysis, regression analysis, and clustering
were used to identify patterns in the data. The research showed that there are
no particularly strong patterns in the autosuggestions for searches related to politician’s
names. Only moderate dependence was found between gender and personal topics, and
showed that a higher amount of personal information autosuggestions correspond more
to female politicians.
Das Landesbibliothekszentrum Rheinland-Pfalz (LBZ) erfüllt die Funktion einer wissenschaftlichen Landesbibliothek für das Land Rheinland-Pfalz und ist zugleich Fördereinrichtung für das landesweite Bibliothekswesen. Für die Erfüllung dieser heterogenen Dienstleistungen werden derzeit unterschiedliche Bibliothekssysteme eingesetzt. Die ständig wachsenden und sich wandelnden Erwartungen an das Bibliothekswesen erfordern neue Lösungsstrategien der IT, wofür Next Generation Systeme (NGS) als innovative Produkte der Softwarehersteller stehen. Die Anforderungen des LBZs an ein NGS werden im Rahmen dieser Masterarbeit definiert und in ein Lastenheft unter Rückgriff auf die bestehenden Anforderungskataloge des OLE-Projektteams VZG und hbz überführt. Ausgangspunkt der Überlegungen ist ein künftiges Dienstleistungsportfolio des LBZs, das auf aktuelle Dienstleistungen aufbaut. Hinzu kommen weitere Impulse, die aus der Bestandsaufnahme der Dienstleistungen vergleichbarer Landesbibliotheken und aus der Betrachtung sonstiger Dienstleistungen im Bibliothekswesen resultieren. Die sich anschließende Marktbeobachtung prüft die in Deutschland bereits eingeführten NGS-Lösungen auf Kompatibilität mit dem erarbeiteten Lastenheft.
Text Mining bietet die Möglichkeit, große Textmengen durch automatisierte Verfahren zu analysieren. Die vorliegende Arbeit beschäftigt sich mit der Anwendung und Evaluation solcher Methoden für die spezielle Textform freier Antworten aus Mitarbeiterbefragungen. Dabei werden verschiedene Techniken aus den drei Bereichen Phrasenextraktion, Sentimentanalyse und Kategorisierung dargestellt und an einer konkreten Umfrage angewendet. Die Ergebnisse werden jeweils durch Abgleich mit manuellen Ergebnissen bzw. durch manuelle Bewertungen evaluiert und die Resultate untereinander verglichen. Die genutzten Verfahren sollten ohne spezifische Trainingsdaten oder Projektinformationen anwendbar sein und sich somit auch für andere Mitarbeiterbefragungen eignen.
Die Phrasenextraktion wird auf drei verschiedene Weisen durchgeführt, wobei Part-of-Speech (POS)-Chunking, Stoppwortbegrenzung und Kookkurrenzen genutzt werden. Die Untersuchungen zeigen, dass mit dem POS-Chunking präziser die relevantesten Phrasen aus längeren Texten ermittelt werden können. Die Methode der Stoppwortbegrenzung extrahiert dagegen eine größere Vielfalt relevanter Phrasen auch aus kürzeren Texten. Manuelle Einschätzungen der Extraktionsergebnisse bewerten die Methode mit POS-Chunking am besten. Darüber hinaus wird eine automatisierte Zusammenfassung semantisch ähnlicher Phrasen durchgeführt, wodurch sich leichte Verbesserungen einiger Evaluationsergebnisse zeigten.
Für die Sentimentanalyse der freien Antworten wird eine Erweiterung eines bestehenden Verfahrens aus dem Social Media-Bereich dargestellt. Hierzu werden der Methode vier Regeln hinzugefügt, welche die Sentimentbewertung aufgrund bestimmter Syntaxformen in den freien Antworten verändern. Die Evaluation zeigt, dass drei der vier Regeln dazu beitragen, dass sich die automatisierte Bewertung manuellen Bewertungen annähert.
Die Kategorisierung wird durch die beiden Topic Modeling-Methoden Latent Dirichlet Allocation (LDA) und Non-negative Matrix Factorization (NMF) durchgeführt. NMF erreichte bei dem Abgleich mit einer manuellen Kategorisierung höhere Übereinstimmungen und zeichnete sich auch durch eine bessere Abgrenzung der Thematiken sowie eine bessere Interpretierbarkeit aus.
Die Text Mining-Methoden und deren Evaluationen werden für diese Arbeit in der Programmiersprache Python umgesetzt. Außerdem werden die Text Mining-Resultate in die Datenvisualisierungssoftware Tableau eingebunden.
In der vorliegenden Arbeit wird ein Einblick in Eignung und Unterschiede verschiedener Text Mining-Methoden in Bezug auf freie Antworten in Mitarbeiterbefragungen gegeben. Darüber hinaus wird dargestellt, dass auch spezifische Anpassungen an diese Textform möglich sind. Zusätzlich werden diverse Optimierungsansätze aufgezeigt, die den noch großen Weiterentwicklungsbedarf in diesem Bereich verdeutlichen.
Aufbau einer deutschsprachigen Community für das Bibliotheksmanagementsystem FOLIO : ein Konzept
(2017)
Seit dem Jahr 2016 evaluieren das Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) und die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG/GBV) in einem gemeinsamen Projekt das Open-Source-System FOLIO. Das Ziel ist, qualifizierte Aussagen zur funktionalen und technischen Eignung von FOLIO für den deutschsprachigen Raum zu treffen. Die Kommunikation sowie Wissensvermittlung während der Entwicklung und der Tests von FOLIO erfolgt, wie in Open-Source-Systemen üblich, primär über die Community des Systems. Allerdings ist die FOLIO-Community aus den USA für die deutschen Interessen meist nicht der adäquate Ansprechpartner, da sich die Bedürfnisse der deutschen Bibliotheken von denen in den USA unterscheiden und nur einen kleinen Teil der großen Gemeinschaft betreffen. Die Entwicklung einer FOLIO-Community für den deutschsprachigen Raum bietet Bibliotheken, die FOLIO zukünftig einsetzen werden, einen Ort, um ihre Bedürfnisse, Anliegen und Probleme zu diskutieren. Aus diesem Grund stellt die Arbeit in und mit einer eigens für Deutschland eingerichteten FOLIO-Community einen wesentlichen Aspekt im FOLIO-Entwicklungsprojekt von hbz und VZG des Projekts dar.
Ziel der vorliegenden Arbeit ist, Rahmenbedingungen sowie Faktoren für einen erfolg-reichen Aufbau und einer dauerhaften Etablierung der deutschsprachigen FOLIO-Community zu identifizieren und zu eruieren, welche Tools benötigt werden, um die Community für die Nutzer attraktiv und bedienungsfreundlich zu gestalten. Hierzu werden bereits vorhandene Communitys im Bereich des Bibliothekswesens, ausgehend von den Handlungsempfehlungen von Amy Jo Kim, Sandra Schaffert sowie Diana Wieden-Bischof, verglichen. Als Referenzmodelle dienen die Communitys des Open Source-Systems Koha, die Kuali OLE-Community sowie die FOLIO-Community aus den USA. Durch den Vergleich werden die Unterschiede sowie die Gemeinsamkeiten der einzelnen Communitys herausgearbeitet, um die gesammelten Erkenntnisse in die Konzeptentwicklung für eine deutschsprachige FOLIO-Community einfließen zu lassen.
Die Masterarbeit beschäftigt sich mit digitalen Schriftstellernachlässen unter besonderer Berücksichtigung
von Originaldateien. Dazu dient zunächst eine Begriffsbestimmung des digitalen
Autografs sowie eine Erhebung der Arbeitsweisen zeitgenössischer Autoren, um dem Problemfeld
der Übernahme und Speicherung digitaler Nachlässe auf die Spur zu kommen. Der Übernahme
eines digitalen Bestands ins Archiv – besonders der Dateien des Thomas-Strittmatter-
Nachlasses in das Deutsche Literaturarchiv in Marbach – sowie der Herausarbeitung signifikanter
Eigenschaften (Significant Properties) des digitalen Strittmatter-Bestands widmet sich die
weitere Arbeit. Abschließend werden die so identifizierten Merkmale digitaler Autografe mit
zwei anderen Beständen – Ernst Schnabels und Walter Erich Richartz' – verglichen. Ein
abschließendes Kapitel fasst die Ergebnisse der Arbeit zusammen und versucht als Ausblick
Ideen für die eindeutige Identifizierung von digitalen Autografen und der stärkeren Einbeziehung
von Institutionen des Literaturbetriebs (Literaturhäuser usw.) in die Übernahme und
langfristigen Speicherung digitaler Nachlässe zu entwickeln.
Der FachRef-Assistent : personalisiertes, fachspezifisches und transparentes Bestandsmanagement
(2017)
Im Rahmen dieser Masterarbeit wurde eine personalisierte Webanwendung zur
Bestandspflege von gedruckten und Online-Medien entwickelt: der FachRef-Assistent.
Dieser führt automatisiert Analysen des Bestandes durch und erstellt Aussonderungsund
Erwerbungsvorschläge. Dabei wurde besonderer Wert auf Individualisierung,
Transparenz der Parameter, bibliothekarische Standards und generische Funktionen
gelegt.
Die Personalisierung erlaubt es, sowohl fachspezifische Nutzungseigenschaften als
auch Unterschiede zwischen verschiedenen Bereichen innerhalb eines Fachbereiches
zu berücksichtigen. Die verwendeten Parametersätze zur Analyse des Bestandes und
zur Erstellung von Aussonderungs- und Erwerbungslisten werden grundsätzlich im
XML-Format gespeichert und in die erzeugten Listen (ebenfalls im XML-Format)
integriert, um eine Nachverfolgung und Transparenz der Analysen auf lange Zeit zu
gewährleisten. Um die Anwendung so generisch wie möglich zu gestalten, wurden alle
Bibliothekssystem-spezifischen Funktionen in einem separaten Paket zusammengefasst.
Durch Adaption der entsprechenden Klassen lassen sich daher prinzipiell
auch andere Bibliothekssysteme befragen. Auch die Integration spezifischer Bedingungen
wie Standort, Aufstellungssystematik und Nutzergruppen wurde möglichst
generisch gestaltet.
Insgesamt stellt der in dieser Arbeit beschriebene FachRef-Assistent ein umfangreiches
Werkzeug zum datenbasierten Bestandsmanagement dar. Der Grad an
Automatisierung lässt sich dabei in vielen Schattierungen anpassen. Der FachRef-
Assistent hilft, durch die Aggregation von objektiven Kriterien eine höhere Effizienz zu erreichen und setzt dadurch sowohl Finanz- als auch Zeitressourcen frei, die somit
für andere Aufgaben zur Verfügung stehen.
Historische Autorenbibliotheken bilden eine für die besitzenden Bibliotheken und die Forschung unschätzbare Quellengrundlage. Sie ermöglichen unter anderem die historische, sozio-kulturelle und intellektuelle Einordnung eines Autors und seines Werkes. Der Zugang zu den Autorenbibliotheken wird allerdings noch von mangelnder Erschließung, fehlender Auffindbarkeit und geringer Reichweite geprägt. Daher müssen Maßnahmen getroffen werden, die den Sammlungszusammenhang dokumentieren und die Inhalte zielgruppengerecht so präsentieren, dass regionale wie internationale Nutzergruppen von der Aufbereitung profitieren. Zu diesen Maßnahmen zählen die umfassende Katalogisierung auf Formalebene, Sachebene und Sammlungsebene mit der Verzeichnung der Provenienzen; außerdem die Entwicklung einer Digitalisierungsstrategie und die Bereitstellung der Metadaten, Bild- und Textdateien in einer virtuellen Forschungsumgebung. Die Arbeit behandelt die Rekonstruktion, die Erschließung und die Digitalisierung von Autorenbibliotheken. Anhand von Untersuchungen an bereits bestehenden digitalen Angeboten werden Handlungsempfehlungen zur Bereitstellung ausgearbeitet und weiterführende Schritte zur Aufbereitung angeregt. Dabei werden Instrumente der Digital Humanities ebenso berücksichtigt wie institutionsübergreifende Kooperationen und die Profilierungschancen für Bibliotheken als kulturelle Gedächtniseinrichtungen.
eHealth Literacy : Analyse aktueller Gesundheitskompetenzmodelle im Zeitalter der Digitalisierung
(2017)
Gesundheit wird aufgrund des Fachkräftemangels sowie der Digitalisierung zu einer immer
individuelleren Angelegenheit. Kompetenzen für die Inanspruchnahme elektronischer Ressourcen
zum Selbstmanagement werden unter dem Begriff eHealth Literacy zusammengefasst.
Im Rahmen der vorliegenden Arbeit werden eHealth Angebote aus den Bereichen
Gesundheitsförderung, Prävention und Krankheitsbewältigung aus einer medienwissenschaftlichen
Perspektive heraus analysiert. Dabei wird der Frage nachgegangen, welche
Kompetenzen und welch kognitiver Aufwand zur ersten Inanspruchnahme von gesundheitsspezifischen
Informations- und Kommunikationstechnologien erforderlich sind. Für die
Analyse werden mehrere Ansätze integriert und um eine rechtliche Komponente ergänzt.
Die Ergebnisse weisen auf eine Verringerung der Anzahl erforderlicher Kompetenzen bei
gleichzeitigem Anstieg des kognitiven Aufwands hin. Angesichts der Intransparenz aufkommender
Innovationen wird eine Erweiterung der Modelle um informationstechnische
sowie ethische Aspekte angeregt.
Die vorliegende Masterarbeit behandelt die Darstellung und exemplarische
Erschließung eines historischen Ansichtspostkartenalbums zwischen 1895 und 1934.
Die Sammlung AV Acta 758 mit ca. 650 Ansichtspostkarten aus den Akten des Vereins
für Geschichte und Altertumskunde Westfalens, Abt. Paderborn e.V. befindet sich als
Depositum an der Erzbischöflichen Akademischen Bibliothek Paderborn, einer
Spezialbibliothek. Die Sammlung verdeutlicht einerseits die Komplexität von
Ansichtspostkarten an der Wende vom 19. zum 20. Jahrhundert vor ihrem kulturgeschichtlichen
Hintergrund, andererseits ist sie eine biographische Quelle und ein
zeitgeschichtliches Dokument des späteren Paderborner Erzbischofs Lorenz Jaeger
(1892-1975) und seinem familiären Umfeld. Ein wichtiges Ziel der Arbeit war die
Entwicklung eines geeigneten Metadatenschemas im Sinne eines Konzeptes zur
Erschließung ausgewählter Ansichtspostkarten. Das Metadatenschema wurde daher
überwiegend auf Basis von Dublin Core entwickelt. Darüber hinaus wurden Konzepte
zum Zugang zur teils aufgearbeiteten Sammlung entwickelt, um eine Grundlage für
einen flexiblen analogen und digitalen Zugang zum Ansichtspostkartenalbum zu legen.
Die Ergebnisse ermöglichen interdisziplinäre Forschungen in den Bereichen Bistumsgeschichte,
Geschichte, Kulturwissenschaften, Germanistik und Kunstgeschichte und
eröffnen auch konzeptionelle Ansätze für die Erschließung von Korrespondenzen sowie
für digitales Sammlungsmanagement.