The 10 most recently published documents
Der digitale Wandel, getrieben durch die Evolution von „New Media“ mit ihren interaktiven, multimedialen Merkmalen und globaler Zugänglichkeit, hat nachhaltige Auswirkungen auf die Bereiche Journalismus, Unterhaltung und Wissenschaftskommunikation hinterlassen. Innerhalb dieses Rahmens dienen Podcasts als zugängliche, offene Plattform zur Verbreitung wissenschaftlicher Informationen und zur Förderung interdisziplinärer Diskussionen, wobei Herausforderungen im Hinblick auf die auditiven Eigenschaften und die Notwendigkeit evidenzbasierter Kommunikation bestehen. Das Hauptziel dieser Studie besteht darin, die jüngsten Fortschritte in KI-gesteuerten Transkriptionsverfahren zu nutzen, um effiziente und hochwertige Transkriptionen zu realisieren. Darüber hinaus werden neue Ansätze zur Steigerung der Auffindbarkeit, Zugänglichkeit und Verbreitung wissenschaftlicher Inhalte diskutiert. Für diese Studie wurden Audio-Daten aus dem bilingualen Common Voice-Datensatz und dem englisch-sprachigen GigaSpeech-Datensatz verwendet, um automatisierte Transkriptionen zu erstellen. Die Transkriptionen wurden anschließend mithilfe von Metriken wie der Wortfehlerrate und des Jaro-Winkler-Ähnlichkeitsmaß bewertet. Die Ergebnisse dieser Untersuchung verdeutlichen, dass die Genauigkeit des ASR-Modells „Whisper“ von OpenAI von verschiedenen Faktoren abhängig ist. Hierzu zählen die Sprache, verschiedene Dialekte, Akzente, Altersgruppen und Themengebiete. Im Gesamten betrachtet konnte die Transkription von englischen im Vergleich zu deutschen Daten präziser durchgeführt werden. Trotz gelegentlicher Fehler zeigten die durch ASR generierten Transkriptionen eine signifikante Ähnlichkeit zur Ground Truth, was auf ihr Potenzial für die Transkription von Podcasts hinweist. Ein Vergleich verschiedener Modellgrößen ergab, dass größere Modelle eine überlegene Leistung erbrachten. Diese robusten Ergebnisse legen nahe, dass Transkriptionen eine sinnvolle Ergänzung zu den vorhandenen Metadaten von Podcasts darstellen und zur Verbesserung von Retrieval-Anwendungen genutzt werden können.
Des Weiteren bieten Transkriptionen eine solide Grundlage für die Anwendung fortgeschrittener Methoden des NLP zur Extraktion entscheidender Informationen, wie beispielsweise Verweise und Entitäten, welche in ein vernetztes System, wie Knowledge Graphs, integriert werden können, um Podcast-Inhalte auf effiziente Weise zu strukturieren und Verknüpfungen zu anderen Wissensquellen herzustellen.
This thesis aims to extend an existing Open Educational Resource (OER), which is available as a GitHub repository, and provide an organized introduction to basic machine learning (ML) concepts and algorithms. Further models, followed by structured metadata for each object, will be included while adhering to the contribution guidelines of the OER and following the CC license. The Machine-Learning-OER Basics repository intends to provide a wide range of benefits by enabling diverse users to apply and distribute machine learning algorithms. The goal of this digital collection is to fill the existing gap for instructional material on using machine learning in OER as well as make it easier to learn ML concepts effectively. These ML models are developed using the programming language Python and the library scikit-learn, among other standard libraries. Jupyter Notebook will make it straightforward for the user to explore the code. In order to apply the models to various practical scenarios, a non-specific data set is selected. This work is considered a solution approach in that it includes adding classification models.
A performance comparison of the models is conducted. This comparative analysis evaluates the efficiency of each model. The examination includes various metrics for measurement. This work serves as a written extension, providing comprehensive background information on the algorithms utilized within the repositories and the performance comparison.
Für die einfache Literaturrecherche von Fachinformationen bietet die ZB MED eine Literaturdatenbank namens LIVIVO an. Um eine thematische Suche zu ermöglichen, befasst sich diese Bachelorarbeit mit der Themenklassifikation der in der Datenbank vorhandenen Publikationen. Das Ziel der Arbeit besteht darin, den Korpus für eine automatisierte Klassifizierung aufzubereiten, um eine relevante Klasseneinteilung zu erzielen. Ausgehend von der Annahme, dass eine Textklassifizierung durch spezifische Terme und Schlüsselwörter gezieltere und aussagekräftigere Ergebnisse liefern kann, wird eine themenspezifische Aufbereitung mithilfe von Wissensorganisationssystemen (Thesauri) eingebunden. Hierzu wird im Vorhinein eine automatisierte Spracherkennung der Publikationen implementiert. Nach der Indexierung der Schlüsselwörter in den Dokumenten werden zwei statistische Klassifikationsmodelle für die Klassifizierung angewandt. Hierzu gehört die Latent Dirichlet Allocation, sowie der Stochastic Gradient Descent Classifier. Abschließend wird die automatische Schlagwortextraktion mit einer intellektuellen Themenanalyse verglichen und die Performance der Klassifizierung mit den aufbereiteten In Input-Daten auf eine Verbesserung hin analysiert.
Das Ziel dieser Arbeit ist es, mithilfe von Social Media eine Kunden Community aufzubauen. Dies soll in Form einer Projektarbeit, mit der Stadtbibliothek Solingen als Projektpartner, erreicht werden. Der Fokus liegt dabei auf der Social-Media-Plattform Instagram. Durch Interviews werden die Interessen der Instagram-Zielgruppe der Stadtbibliothek Solingen eruiert. Daraus resultierend werden Vorschläge für eine angepasste Social-Media-Strategie gemacht, mit dem Ziel, eine Online-Community aufzubauen. So kann die Stadtbibliothek Werbung für ihre Angebote machen, die Follower*innen erfahren von den Angeboten, kommen in die Bibliothek und werden zu Kund*innen, wodurch sich eine Kunden Community bildet. Dieses Projekt verwendet die Design Thinking Methode. Um einen erfolgreichen Social-Media-Auftritt zu gestalten, ist es essenziell eine Strategie zu entwickeln. Ebenso muss sich eine Bibliothek, aufgrund des Mangels von zeitlichen und personellen Ressourcen, auf wenige Plattformen und deren Funktionen fokussieren. Um eine Online-Community zu bilden, ist es unabdingbar, die Follower*innen aktiv mit einzubeziehen, den Personen die Möglichkeit zu geben, den Account mitzugestalten und kontinuierlich die Strategie zu überarbeiten und zu verbessern. Diese Arbeit ist nicht nur für die Stadtbibliothek Solingen interessant, sondern auch andere Bibliotheken, die ihre Kunden Community mithilfe von Social Media aufbauen wollen, und auch Interessierte aus anderen Bereichen können die Erkenntnisse dieser Arbeit als Grundlage für ihre Social-Media-Strategie nutzen.
Die Einarbeitung neuer Mitarbeiter*innen ist heutzutage eng an ein funktionales Wissensmanagement gebunden. In Verbindung mit der Umstellung des Bibliothekssystems vieler Bibliotheken in Nordrhein-Westfalen auf das Bibliotheksmanagementsystem Alma wird es gerade für kleine wissenschaftliche Bibliotheken zur Herausforderung ihre Mitarbeiter*innen einzuarbeiten und gleichzeitig das interne Wissensmanagement zu pflegen. Die vorliegende Bachelorarbeit beschäftigt sich mit der Einarbeitung studentischer Hilfskräfte in Alma auf der Grundlage des Wissensmanagements und setzt den Fokus dabei auf kleine wissenschaftliche Bibliotheken. Für die Umsetzung wird sich zunächst mit dem internen Wissensmanagement in Bibliotheken auseinandergesetzt, gefolgt von einer Definition kleiner wissenschaftlicher Bibliotheken. Weiterführend wird die Thematik der Einarbeitung neuer Mitarbeiter*innen behandelt und das Bibliotheksmanagementsystem Alma eingeordnet und vorgestellt. Der Hauptteil der Arbeit bildet ein auf der bloomsche[n] Taxonomie basierendes, von Grund auf neu konzipiertes Einarbeitungskonzept, welches für die Bibliothek der Rheinischen Fachhochschule Köln entwickelt und im Rahmen der Arbeit in dieser getestet wurde. Die Auswertung der Evaluation am Ende zeigt auf, dass auf Basis von internem Wissensmanagement und dem Hinzuziehen einer didaktischen Grundlage ein gutes Einarbeitungskonzept entstehen kann und neue Mitarbeiter*innen unter sehr guten Voraussetzungen in den Arbeitsalltag einer kleinen wissenschaftlichen Bibliothek einsteigen können.
Die Konvertierung von bibliographischen Daten in andere Formate stellt eine häufige Herausforderung in der bibliothekarischen Arbeit dar, wie die Systemumstellung vieler Bibliotheken auf das Bibliotheksmanagementsystem Alma zeigt. Dabei ist die verlustfreie Durchführung dieses Prozesses eine besondere Schwierigkeit, die aus der Verschiedenheit der Formate resultiert. Ein konkretes Beispiel für eine solche zu konvertierende Datenmenge ist die Literaturdatenbank "Literatur zur Informationserschließung", welche 44.218 bibliographische Einträge enthält und von einer modifizierten Form des Allegro-Neutralformats in das RIS-Format konvertiert werden soll. Dabei wird auf der Grundlage von erarbeiteten Konkordanzen zwischen beiden Formaten und Untersuchungen der Datenbank mit regulären Ausdrücken, sowie einem Pythonskript ein Programm geschrieben, das die Datenbank in das Zielformat konvertieren soll. Das Ergebnis wird anhand einer proportionalen Schichtenstichprobe evaluiert. Abschließend werden der Entwicklungsprozess und das Ergebnis hinsichtlich des stattgefundenen Informationsverlustes bei dem Konvertierungsprozess reflektiert.
Die vorliegende Masterarbeit untersucht die Auswirkungen von Deepfakes auf die journalistische Praxis und beleuchtet die Bedeutung von Aufklärung und Medienkompetenz im Umgang mit dieser Technologie. Mithilfe qualitativer Expert:inneninterviews werden persönliche Perspektiven und Erfahrungen von Medienschaffenden mit Deepfakes in deren alltäglichen Arbeit erfasst, um ein tieferes Verständnis für die Herausforderungen und die notwendigen Anpassungen des Journalismus zu gewinnen.
Die Studie zeigt, dass die Wahrnehmung von und der Umgang mit Deepfakes stark von den persönlichen Erfahrungen der Befragten und deren Bewusstsein für die Technologie abhängen. Dabei unterstreichen die Ergebnisse dieser Arbeit die Notwendigkeit einer strengen Prüfung von Deepfakes, um die Glaubwürdigkeit und Integrität des Journalismus zu wahren. Es wird deutlich, dass es des technologischen Fortschritts und des menschlichen Urteilsvermögens bedarf, um manipulierte Inhalte wirksam zu erkennen und zu bekämpfen. In diesem Kontext betont die Untersuchung die zentrale Rolle der Medienkompetenz, die durch Aufklärungskampagnen und öffentliche Initiativen gefördert werden sollte, um die Fähigkeit der Journalist:innen und der Gesellschaft zur Bekämpfung von Desinformation zu stärken.
In der methodischen Reflexion werden Limitationen wie die Subjektivität der Datenerhebung und die begrenzte Stichprobengröße hervorgehoben, wodurch die Studienergebnisse als spezifische Perspektiven und nicht als universelle Wahrheiten gelten. Eine kritische Methodenbetrachtung ist essenziell, inklusive Verbesserungsvorschlägen für zu-künftige Forschung zu Deepfakes im Journalismus, wie die Erweiterung der Stichprobe und die Präzisierung der Forschungsfragen, um ein tieferes Verständnis zu entwickeln.
Die Ergebnisbetrachtung im theoretischen Rahmen verdeutlicht die Bedeutung von Medienkompetenz und Medienethik für den sorgfältigen und bedachten Umgang mit Medieninhalten, welche es sowohl unter Journalist:innen als auch in der breiten Gesellschaft zu fördern gilt. Die Überarbeitung journalistischer Standards und Arbeitsweisen angesichts digitaler Manipulation benötigt eine ständige Überprüfung ethischer Verantwortungsgrundsätze und die Entwicklung geeigneter Kontrollmechanismen. Eine ethische Zusammenarbeit aller Medienakteur:innen ist entscheidend, um die Glaubwürdigkeit journalistischer Informationen in der digitalen Medienlandschaft zu wahren. Diese erfordert eine kollektive Verantwortung und Weiterbildung von Journalist:innen, Medienorganisationen, Forscher:innen und Rezipient:innen, um wirksame Authentifizierungsstrategien und innovative Erkennungsmethoden zu entwickeln.
Das vorliegende Dokument bildet den schriftlichen Teil einer medienpraktischen Bachelorarbeit im Studiengang Online Redaktion an der Technischen Hochschule (TH) Köln. Ziel dieses Projektes ist die Entwicklung einer Website für das Musiklabel Lust Klub. In der Musikbranche ist es immer schwieriger geworden Fuß zu fassen und Geld zu verdienen. Vor diesem Hintergrund hat Lust Klub es sich zur Aufgabe gemacht, über Community Building lokale Künstler aus dem Bereich der elektronischen Musik zu fördern, ihnen eine Plattform zu bieten, Buchungen zu vermitteln sowie ihre Musik zu verlegen und zu verbreiten. Dabei verfolgt Lust Klub auch kommerzielle Interessen. Die Website erweitert die bereits bestehende Online-Präsenz, bündelt diese und bietet eine zentrale Anlaufstelle für Informationen, Sound-Beispiele und Referenzen. Darüber hinaus vereinfacht die Website den Booking-Prozess durch ein benutzerfreundliches Formular. Um dieses Ziel zu erreichen, wird zunächst ein Benchmarking durchgeführt, um Best Practices zu ermitteln. Anschließend werden Personas und User Stories verwendet, um die Zielgruppe zu visualisieren und zu definieren. Basierend auf diesen Erkenntnissen erfolgt die Konzeption und Erstellung der Website, wobei WordPress und Elementor Pro genutzt wird. Dieses Projekt vereint konzeptionelle, kreative Überlegungen und Analysen mit praktischer Umsetzung, um eine maßgeschneiderte Online-Präsenz für Lust Klub zu schaffen und gleichzeitig die Bedürfnisse der Zielgruppe bestmöglich zu erfüllen. Schlussendlich wird die Umsetzung des Konzepts reflektiert.
Es wird in vorliegender Arbeit dargestellt, wie eine dezentrale Fachbibliothek an der Universität zu Köln zu einer inspirierenden und zugleich funktionalen Einheit aus Lehr- und Lernraum, bibliothekarischen Services und sozialem Ort weiterentwickelt wird. Der aktuelle Forschungsstand zur Gestaltung hybrider Lernräume, zur didaktischen Konzeption multimedialer Lehr-Lerneinheiten und zu Umsetzungsbeispielen wissenschaftlicher Bibliotheken wird mit Hilfe eines Narrative Overview ermittelt. Auf dieser Grundlage und unter Nutzung vorhandener Potentiale wurde die Fachbibliothek Geographie in Köln konzeptionell neu ausgerichtet und zu einem zukunftsorientierten Lernraum weiterentwickelt. Das multimediale Veranstaltungsangebot zur Informations- und Medienkompetenz und der Lernraum Bibliothek sind innerhalb eines hybriden Lehr-Lernkonzepts eng aufeinander abgestimmt.
Das Vermittlungskonzept berücksichtigt didaktische Standards wie Kompetenzrahmen und Frameworks. Die Kursangebote sind Lernenden- und Serviceorientiert ausgerichtet, indem fachwissenschaftliche Anforderungen und individuelle Kenntnisse der Kurs-teilnehmenden für die inhaltliche und methodische Ausrichtung der Veranstaltungen berücksichtigt werden. Vor dem Hintergrund der digitalen Transformation wird die Informations- und Medienkompetenz als eine zentrale Schlüsselkompetenz nachhaltig gefördert. Das Konzept lässt sich kollaborativ weiterentwickeln und ist für die Übertragung auf andere Fächer und Hochschulstandorte ausgelegt.
Der neu konzipierte Lern- und Lehrraum verknüpft individuelles und soziales Lernen mit den bibliothekarischen Lehrangeboten in unmittelbarer Nähe zu den Informationsmedien. Die neu entstandene Lernlandschaft der Fachbibliothek unterstützt das selbstorganisierte Lernen und bietet eine hohe Aufenthaltsqualität. Für unterschiedliche Lernstrategien und Lehrsettings werden geeignete Raumbereiche gestaltet, die sich im Rahmen der räumlichen Gegebenheiten darauf anpassen lassen.
Die Fachbibliothek Geographie an der Universität zu Köln wird zur Learning Library mit dem Potential im Sinne einer Information Commons weiterentwickelt. Das Bibliothekspersonal übernimmt als Teaching Librarian u.a. die Funktionen des Coachings und der Lernbegleitung.