Refine
Document Type
- Bachelor Thesis (15)
- Master's Thesis (2)
Keywords
- Information Retrieval (6)
- Data Mining (2)
- Deutsche Nationalbibliothek (2)
- Reproduzierbarkeit (2)
- A9 (1)
- Algorithmus (1)
- Amazon (1)
- Benutzerverhalten (1)
- Bias (1)
- Claim Detection (1)
Anforderungen der Bibliotheksnutzer und -Personal an den Webauftritt der Bücherei der Stadt Bingen
(2021)
Websites nehmen eine besondere Position im Marketing ein und sind ein Bestandteil der Kommunikationsstrategie von Unternehmen und Institutionen. Aktuell modernisiert sich die Bücherei³ in Bingen am Rhein. Aus diesem Grund soll die vorliegende Bachelorarbeit die Verbesserung der Website als Instrument des Marketings unterstützen.
Das Ziel der Forschung dieser Arbeit ist ein Webseitenkonzept für die Projektbibliothek Bücherei³ zu entwickeln. Im Fokus steht dabei ein Designkonzept mit technischen Erläuterungen. Um ein Konzept für eine Website auszuarbeiten, wird folgende Forschungsfrage repliziert: „Welche Anforderungen der Bibliotheksnutzer und -Personal gibt es an den Webauftritt der Bücherei³ der Stadt Bingen?“
Dazu werden zwei Fragebögen für vordefinierte Zielgruppen und das Personal der Bibliothek entwickelt und abgefragt. Somit werden die Anforderungen dieser Gruppen an eine für sie attraktive Website ermittelt. Zusätzlich wird ein Experteninterview mit einem Online-Redakteur der Stadt Bingen durchgeführt, das die Rahmenbedingungen für die Gestaltung der Website aufzeigt.
Die Auswertung zeigt, dass die Anforderungen von Personal und Zielgruppe sehr ähnlich sind. Die Zielgruppen bevorzugen eine informative Website, da sie sich in der Regel gerne vor Ort beraten lassen und in der Bibliothek verweilen. Es konnte ein erweitertes Webseitenkonzept entwickelt werden, in welches viele Wünsche beider Seiten einfließen konnten. Das Endkonzept wird durch Beispielbilder ergänzt. Weiterführende Schritte sind die Umsetzung des Konzeptes.
Die German Library Indexing Collection (GeLIC) soll dazu dienen, die Retrievalleistung von maschinellen und intellektuellen Schlagwörtern der Deutschen Nationalbibliothek (DNB) zu vergleichen. Das Verfahren zur Erzeugung des Korpus der Kollektion wurde im Verlauf dieser Arbeit automatisiert. Dafür musste zunächst der bestehende Korpus analysiert werden, um Ziele für den zu entwickelnden Prozess formulieren zu können. Darauf folgt ein State of the Art zu bibliothekarischen und universellen ETL-Lösungen. Es wurde entschieden, dass das automatische Verfahren mithilfe von Python realisiert werden sollte. Nachdem festgelegt wurde welche Daten benötigt werden, wurden die öffentlich verfügbaren Formate der DNB analysiert. Dabei wurde deutlich, dass in beiden Formaten maschinelle Schlagwörter nicht in jedem Fall von intellektuellen unterschieden werden können. Anschließend wurde das Package gelic_mt entwickelt und darauf aufbauend eine Pipeline für GeLIC. Bei der Prüfung des damit erzeugbaren Korpus, wurde erneut ersichtlich, dass die derzeitig öffentlich verfügbaren Daten keinen Korpus erlauben, der für die gewünschten Retrievaltests geeignet ist.
Die Nutzung von Suchmaschinen ist im Alltag moderner Gesellschaften fest implementiert und gilt heute als eines der Fundamente digitaler Informationsbeschaffung.
Diverse Studien schreiben digitalen Informationsanbietern einen soziotechnologischen Charakter zu, welcher potenziell dazu in der Lage ist durch ein Konglomerat feinjustierter Algorithmen Gesellschaften zu beeinflussen und eine Steuergröße in demokratischen Prozessen abzubilden. Die vorliegende Bachelor-Thesis belegt durch die Analyse diverser Nationen mithilfe der Datamining-Umgebung RapidMiner die ungleiche Darstellung von Ethnien in Suchvervollständigungen durch Textminingverfahren wie TF-IDF-Gewichtung, Erhebung von Termhäufigkeiten und der Durchführung einer Sentimentanalyse.
Das Ziel dieser Bachelorarbeit ist es zu erläutern, wie der Algorithmus von Amazon funktioniert und welche Faktoren für das Ranking wichtig sind. Dazu wurden zwei Experimente durchgeführt, welche jeweils einen Ranking- und einen Performance-Faktor testen sollten. Die Ergebnisse aus diesen Tests zeigen, in wie weit ein Verkäufer das Ranking seiner Produkte manipulieren kann.
Werden Sprachmodelle auf neue Daten trainiert oder bereits vortrainierte Sprachmodelle durch Finetuning auf neue Daten fein abgestimmt, so lernt ein Sprachmodell jegliche Informationen aus den verwendeten Trainingsdaten. Meistens beinhalten die Trainingsdaten einen Bias. Dieser Bias wird ebenfalls durch die Sprachmodelle aufgenommen und im Antwortverhalten verbreitet. Besonders auf die politische Domäne kann sich diese Eigenschaft negativ auswirken. So können Sprachmodelle durch Finetuning auf politische voreingenommene Daten fein abgestimmt werden, welche anschließend verwendet werden können, um Applikationen zu entwickeln, welche die politische Meinung der Benutzer*Innen beeinflussen sollen.
Das Ziel dieser Arbeit ist, zu untersuchen wie sich verschiedene Sprachmodelle auf die Reproduktion der politischen Voreingenommenheit auswirken und welche Auswirkungen verschiedene Faktoren aus dem Trainingsdatensatz auf die Reproduktion der politischen Voreingenommenheit haben.
Dafür wurde ein Web Scraper angepasst, um den dadurch generierten Datensatz durch weitere Daten zu erweitern. Bei den Daten im Datensatz handelt es sich um Nachrichtendaten der amerikanischen Politikdomäne. Dieser Datensatz wurde durch die Volltexte der Nachrichten erweitert. Außerdem wurden zusätzlich die Zitate aus den Volltexten entfernt, um die Auswirkung der Zitate auf die Reproduktion der politischen Voreingenommenheit zu untersuchen. Anschließend wurden drei Sprachmodelle, welche auf unterschiedlichen Komponenten der Transformer-Architektur basieren, auf die Schlagzeilen, Volltexte und Volltexte ohne Zitate der linken und rechten Nachrichtendaten fein abgestimmt. Nach dem Finetuning haben die Sprachmodelle Texte für Eingaben generiert. Die generierten Texte wurden durch ein Evaluationsschema auf die politische Voreingenommenheit evaluiert. Dabei wurde die politische Voreingenommenheit am stärksten und genausten durch das Sprachmodell DistilGPT2 reproduziert, welches beim Finetuning die Volltexte verwendet hat. Das Sprachmodell DistilGPT2 basiert auf der Decoder-Komponente der Transformer-Architektur. Stehen viele Daten beim Finetuning zur Verfügung, führt das Verwenden der Volltexte ohne Zitate beim Finetuning zu einer weiteren Verstärkung der Reproduktion der politischen Voreingenommenheit.
Diese Arbeit beschäftigt sich mit der Frage, ob sich Personalisierung auf die Suchvorschläge bei Google auswirkt.
Zunächst wird beschrieben, inwiefern dies im Kontext gesellschaftlichen Diskurses relevant ist und was zur Entstehung von Filterblasen im Allgemeinen führen kann. Auch Google als Unternehmen und dessen Geschäftsmodell wird in dieser Arbeit betrachtet.
Zur Sammlung der Daten wurde eigenständig ein Programm entwickelt, welches sich automatisch in Google Accounts einloggt, Suchanfragen absendet und anschließend die Suchvorschläge speichert.
Mithilfe der Berechnung des Jaccard-Index und einer intellektuellen Auswertung der Daten konnte so festgestellt werden, ob es einen Einfluss der Personalisierung auf die Suchvorschläge gibt.
Es konnten zwar geringe Abweichungen zwischen einzelnen Tagen festgestellt werden, generell schlägt sich der Einfluss der Personalisierung allerdings nicht in den Ergebnissen dieser Arbeit nieder.
Wissenschaftliche Pressekonferenzen sind eine wertvolle Informationsquelle. Sie bestehen aus abwechselnden Reden von Expert:innen und Antworten auf Fragen aus dem Publikum und können daher zu einer faktenbasierten Berichterstattung beitragen. Obgleich Pressekonferenzen eine hohe Informationsdichte besitzen, ist das Extrahieren von relevanten Statements schwierig und zeitintensiv. Um diese Arbeit zu unterstützen, wird ein System vorgeschlagen, das automatisiert Statements aus Pressekonferenzen extrahiert. Claims, also Behauptungen über Sachverhalte, werden als zentrales Element eines Statements identifiziert und dienen als wichtigstes Feature, um Statements in Transkripten von Pressekonferenzen zu identifizieren. Hierzu wird ein zweistufiger Prozess vorgeschlagen.
Zunächst werden mithilfe einer Single Label Multi-Class Sequenzklassifikation Sätze identifiziert, welche ein Claim enthalten. Anschließend werden die Sätze weiterverarbeitet, um irrelevante Sätze und solche mit anaphorischen Verbindungen herauszufiltern oder die Länge der Statements zu beeinflussen. Die Ergebnisse lassen vermuten, dass das Identifizieren von Claims erfolgreich eingesetzt werden kann, um Statements in Pressekonferenzen zu finden. Obwohl viele Statements mit diesem automatisierten System extrahiert werden können, sind die extrahierten Sätze nicht immer schlüssig genug, um ohne weiteren Kontext verstanden zu werden und benötigen weitere Begutachtung durch fachkundige Personen.
As the information era progresses, the sheer volume of information calls for sophisticated retrieval systems. Evaluating them holds the key to ensuring the reliability and relevance of retrieved information. If evaluated with renowned methods, the measured quality is generally presumed to be dependable. That said, it is often forgotten that most evaluations are only snapshots in time and the reliability might be only valid for a short moment. Further, each evaluation method makes assumptions about the circumstances of a search and thereby has different characteristics. Achieving reliable evaluation is critical to retain the aspired quality of an IR system and maintain the confidence of the users. Therefore, we investigate how the evaluation environment (EE) evolves over time and how this might affect the effectiveness of retrieval systems. Further, attention is paid to the differences in the evaluation methods and how they work together in a continuous evaluation framework. A literature review was conducted to investigate changing components which are then modeled in an extended EE. Exemplarily, the effect of document and qrel updates on the effectiveness of IR systems is investigated through reproducibility experiments in the LongEval shared task. As a result, 11 changing components together with initial measures to quantify how they change are identifed, the temporal consistency of five IR systems could precisely be quantifed through reproducibility and replicability measures and the findings were integrated into a continuous evaluation framework. Ultimately, this work contributes to more holistic evaluations in IR.
The goal of this work is to detect "gender biases" in the communication of users of Subreddits on the platform Reddit. The analysis is carried out for eleven selected Subreddits. Furthermore, an attempt is made to identify different user types with the help of a k-means clustering and also to analyze "gender biases" in their communication. Based on the aggregated datasets, fasttext Word Embedding models are trained to identify terms that show high semantic relatedness in terms of cosine similarity of their word vectors with selected feminine and masculine terms.
To this end, the terms are analyzed for sentiment using the NRC-VAD Lexicon and tested for statistically significant differences. In addition, the Word Embedding Association Test (WEAT) is performed to check for subliminal associations. In relation to the considered text corpus, it is essentially observed that women are frequently associated with adjectives that associate them with appearances,
childbearing abilities or adaptability also in relation to the family. In contrast, men are associated with and measured by adjectives that refer to their prestige, strengths and weaknesses, career or physical characteristics.