Refine
Year of publication
Document Type
- Bachelor Thesis (248) (remove)
Has Fulltext
- yes (248) (remove)
Keywords
- Öffentliche Bibliothek (16)
- Informationskompetenz (12)
- Social Media (10)
- Bibliothek (6)
- Journalismus (6)
- Barrierefreiheit (5)
- Information Retrieval (5)
- Konzeption (5)
- Medienkompetenz (5)
- Open Access (5)
Die vorliegende Bachelorarbeit befasst sich mit der Frage, inwiefern öffentliche Bibliothekare in Kinofilmen und Fernsehserien sich vom Berufsbild deutscher und internationaler Bibliotheksverbände unterscheiden. Ziel der Arbeit ist es, sowohl Gemeinsamkeiten als auch Unterschiede zu identifizieren, die zwischen den stereotypischen Verfilmungen und der tatsächlichen beruflichen Rolle von Bibliothekaren auftreten. Insgesamt werden acht Kinofilme und elf Fernsehserien, in denen öffentliche Bibliothekare als Charaktere vorkommen, im Zeitraum der letzten fünf Jahre untersucht. Die Ergebnisse der formalen und inhaltlichen Kategorien stehen dabei im Mittelpunkt der Analyse, da sie dazu beitragen, die Bedeutung einer differenzierten Darstellung in den Medien zu betonen. Sie liefert zudem Impulse für weitere Forschungsansätze zur Repräsentation von Berufen und deren Einfluss auf die öffentliche Wahrnehmung.
Compact Discs sind Datenträger, die in großer Zahl in den Beständen von Gedächtnisorganisationen vorkommen. Weil die Datenträger nur begrenzt haltbar sind, entwickelt sich immer stärker die Notwendigkeit, die Daten von den Trägern zu trennen und gesondert zu archivieren. Die Arbeit gibt einen Überblick darüber, welche Institutionen das Problem auf welche Art und Weise angehen und schlägt Perspektiven für die Zukunft vor. Im theoretischen Teil wird der Begriff „Gedächtnisorganisation“ geklärt, es wird die Bewahrungsproblematik von CDs ausgeführt und es werden Migration und die Erstellung von Disc Images zur Emulation als Archivierungsoptionen erläutert. Im Praxisteil werden mithilfe von Interviews und Literaturarbeit verschiedene Einrichtungen und deren individuelle Strategien vorgestellt. Es zeigt sich deutlich, dass die Langzeitarchivierung optischer Datenträger aktuell noch ein sehr individuelles Thema ist, das Einrichtungen primär aus eigener Motivation angehen und bislang nur wenig Zusammenarbeit stattfindet, um gemeinsame Lösungen zu entwickeln. Abschließend werden Vorschläge formuliert, was unternommen werden kann, um die Langzeitarchivierung in Deutschland zu vereinheitlichen und zu rationalisieren.
Schulungen zu Predatory Publishing: Identifikation von Best Practices an deutschen Universitäten
(2023)
Predatory Publishing ist eine aus dem Open Access entstandene Geschäftspraktik. Verlage machen sich die Unwissenheit von Forscher*innen zunutze, um sich selbst zu bereichern. In der folgenden Ausarbeitung wird untersucht, wie verbreitet Bibliotheken zu Predatory Publishing aufklären und welche Inhalte und Methoden sich als Best Practice für Informationsangebote anbieten. Inhaltlich überschneiden sich die Angebote in vielen Punkten und je nachdem wie umfangreich die Angebote geplant sind, werden Informationen mit Beispielen vertieft. Der gängige didaktische Aufbau für Workshops besteht aus einem theoretischen Teil und einer Übung, um das Gelernte anzuwenden.
Der digitale Wandel, getrieben durch die Evolution von „New Media“ mit ihren interaktiven, multimedialen Merkmalen und globaler Zugänglichkeit, hat nachhaltige Auswirkungen auf die Bereiche Journalismus, Unterhaltung und Wissenschaftskommunikation hinterlassen. Innerhalb dieses Rahmens dienen Podcasts als zugängliche, offene Plattform zur Verbreitung wissenschaftlicher Informationen und zur Förderung interdisziplinärer Diskussionen, wobei Herausforderungen im Hinblick auf die auditiven Eigenschaften und die Notwendigkeit evidenzbasierter Kommunikation bestehen. Das Hauptziel dieser Studie besteht darin, die jüngsten Fortschritte in KI-gesteuerten Transkriptionsverfahren zu nutzen, um effiziente und hochwertige Transkriptionen zu realisieren. Darüber hinaus werden neue Ansätze zur Steigerung der Auffindbarkeit, Zugänglichkeit und Verbreitung wissenschaftlicher Inhalte diskutiert. Für diese Studie wurden Audio-Daten aus dem bilingualen Common Voice-Datensatz und dem englisch-sprachigen GigaSpeech-Datensatz verwendet, um automatisierte Transkriptionen zu erstellen. Die Transkriptionen wurden anschließend mithilfe von Metriken wie der Wortfehlerrate und des Jaro-Winkler-Ähnlichkeitsmaß bewertet. Die Ergebnisse dieser Untersuchung verdeutlichen, dass die Genauigkeit des ASR-Modells „Whisper“ von OpenAI von verschiedenen Faktoren abhängig ist. Hierzu zählen die Sprache, verschiedene Dialekte, Akzente, Altersgruppen und Themengebiete. Im Gesamten betrachtet konnte die Transkription von englischen im Vergleich zu deutschen Daten präziser durchgeführt werden. Trotz gelegentlicher Fehler zeigten die durch ASR generierten Transkriptionen eine signifikante Ähnlichkeit zur Ground Truth, was auf ihr Potenzial für die Transkription von Podcasts hinweist. Ein Vergleich verschiedener Modellgrößen ergab, dass größere Modelle eine überlegene Leistung erbrachten. Diese robusten Ergebnisse legen nahe, dass Transkriptionen eine sinnvolle Ergänzung zu den vorhandenen Metadaten von Podcasts darstellen und zur Verbesserung von Retrieval-Anwendungen genutzt werden können.
Des Weiteren bieten Transkriptionen eine solide Grundlage für die Anwendung fortgeschrittener Methoden des NLP zur Extraktion entscheidender Informationen, wie beispielsweise Verweise und Entitäten, welche in ein vernetztes System, wie Knowledge Graphs, integriert werden können, um Podcast-Inhalte auf effiziente Weise zu strukturieren und Verknüpfungen zu anderen Wissensquellen herzustellen.
This thesis aims to extend an existing Open Educational Resource (OER), which is available as a GitHub repository, and provide an organized introduction to basic machine learning (ML) concepts and algorithms. Further models, followed by structured metadata for each object, will be included while adhering to the contribution guidelines of the OER and following the CC license. The Machine-Learning-OER Basics repository intends to provide a wide range of benefits by enabling diverse users to apply and distribute machine learning algorithms. The goal of this digital collection is to fill the existing gap for instructional material on using machine learning in OER as well as make it easier to learn ML concepts effectively. These ML models are developed using the programming language Python and the library scikit-learn, among other standard libraries. Jupyter Notebook will make it straightforward for the user to explore the code. In order to apply the models to various practical scenarios, a non-specific data set is selected. This work is considered a solution approach in that it includes adding classification models.
A performance comparison of the models is conducted. This comparative analysis evaluates the efficiency of each model. The examination includes various metrics for measurement. This work serves as a written extension, providing comprehensive background information on the algorithms utilized within the repositories and the performance comparison.
Für die einfache Literaturrecherche von Fachinformationen bietet die ZB MED eine Literaturdatenbank namens LIVIVO an. Um eine thematische Suche zu ermöglichen, befasst sich diese Bachelorarbeit mit der Themenklassifikation der in der Datenbank vorhandenen Publikationen. Das Ziel der Arbeit besteht darin, den Korpus für eine automatisierte Klassifizierung aufzubereiten, um eine relevante Klasseneinteilung zu erzielen. Ausgehend von der Annahme, dass eine Textklassifizierung durch spezifische Terme und Schlüsselwörter gezieltere und aussagekräftigere Ergebnisse liefern kann, wird eine themenspezifische Aufbereitung mithilfe von Wissensorganisationssystemen (Thesauri) eingebunden. Hierzu wird im Vorhinein eine automatisierte Spracherkennung der Publikationen implementiert. Nach der Indexierung der Schlüsselwörter in den Dokumenten werden zwei statistische Klassifikationsmodelle für die Klassifizierung angewandt. Hierzu gehört die Latent Dirichlet Allocation, sowie der Stochastic Gradient Descent Classifier. Abschließend wird die automatische Schlagwortextraktion mit einer intellektuellen Themenanalyse verglichen und die Performance der Klassifizierung mit den aufbereiteten In Input-Daten auf eine Verbesserung hin analysiert.
Das vorliegende Dokument bildet den schriftlichen Teil einer medienpraktischen Bachelorarbeit im Studiengang Online Redaktion an der Technischen Hochschule (TH) Köln. Ziel dieses Projektes ist die Entwicklung einer Website für das Musiklabel Lust Klub. In der Musikbranche ist es immer schwieriger geworden Fuß zu fassen und Geld zu verdienen. Vor diesem Hintergrund hat Lust Klub es sich zur Aufgabe gemacht, über Community Building lokale Künstler aus dem Bereich der elektronischen Musik zu fördern, ihnen eine Plattform zu bieten, Buchungen zu vermitteln sowie ihre Musik zu verlegen und zu verbreiten. Dabei verfolgt Lust Klub auch kommerzielle Interessen. Die Website erweitert die bereits bestehende Online-Präsenz, bündelt diese und bietet eine zentrale Anlaufstelle für Informationen, Sound-Beispiele und Referenzen. Darüber hinaus vereinfacht die Website den Booking-Prozess durch ein benutzerfreundliches Formular. Um dieses Ziel zu erreichen, wird zunächst ein Benchmarking durchgeführt, um Best Practices zu ermitteln. Anschließend werden Personas und User Stories verwendet, um die Zielgruppe zu visualisieren und zu definieren. Basierend auf diesen Erkenntnissen erfolgt die Konzeption und Erstellung der Website, wobei WordPress und Elementor Pro genutzt wird. Dieses Projekt vereint konzeptionelle, kreative Überlegungen und Analysen mit praktischer Umsetzung, um eine maßgeschneiderte Online-Präsenz für Lust Klub zu schaffen und gleichzeitig die Bedürfnisse der Zielgruppe bestmöglich zu erfüllen. Schlussendlich wird die Umsetzung des Konzepts reflektiert.
Die Konvertierung von bibliographischen Daten in andere Formate stellt eine häufige Herausforderung in der bibliothekarischen Arbeit dar, wie die Systemumstellung vieler Bibliotheken auf das Bibliotheksmanagementsystem Alma zeigt. Dabei ist die verlustfreie Durchführung dieses Prozesses eine besondere Schwierigkeit, die aus der Verschiedenheit der Formate resultiert. Ein konkretes Beispiel für eine solche zu konvertierende Datenmenge ist die Literaturdatenbank "Literatur zur Informationserschließung", welche 44.218 bibliographische Einträge enthält und von einer modifizierten Form des Allegro-Neutralformats in das RIS-Format konvertiert werden soll. Dabei wird auf der Grundlage von erarbeiteten Konkordanzen zwischen beiden Formaten und Untersuchungen der Datenbank mit regulären Ausdrücken, sowie einem Pythonskript ein Programm geschrieben, das die Datenbank in das Zielformat konvertieren soll. Das Ergebnis wird anhand einer proportionalen Schichtenstichprobe evaluiert. Abschließend werden der Entwicklungsprozess und das Ergebnis hinsichtlich des stattgefundenen Informationsverlustes bei dem Konvertierungsprozess reflektiert.