Refine
Year of publication
Document Type
- Bachelor Thesis (248) (remove)
Has Fulltext
- yes (248) (remove)
Keywords
- Öffentliche Bibliothek (16)
- Informationskompetenz (12)
- Social Media (10)
- Bibliothek (6)
- Journalismus (6)
- Barrierefreiheit (5)
- Information Retrieval (5)
- Konzeption (5)
- Medienkompetenz (5)
- Open Access (5)
Der digitale Wandel, getrieben durch die Evolution von „New Media“ mit ihren interaktiven, multimedialen Merkmalen und globaler Zugänglichkeit, hat nachhaltige Auswirkungen auf die Bereiche Journalismus, Unterhaltung und Wissenschaftskommunikation hinterlassen. Innerhalb dieses Rahmens dienen Podcasts als zugängliche, offene Plattform zur Verbreitung wissenschaftlicher Informationen und zur Förderung interdisziplinärer Diskussionen, wobei Herausforderungen im Hinblick auf die auditiven Eigenschaften und die Notwendigkeit evidenzbasierter Kommunikation bestehen. Das Hauptziel dieser Studie besteht darin, die jüngsten Fortschritte in KI-gesteuerten Transkriptionsverfahren zu nutzen, um effiziente und hochwertige Transkriptionen zu realisieren. Darüber hinaus werden neue Ansätze zur Steigerung der Auffindbarkeit, Zugänglichkeit und Verbreitung wissenschaftlicher Inhalte diskutiert. Für diese Studie wurden Audio-Daten aus dem bilingualen Common Voice-Datensatz und dem englisch-sprachigen GigaSpeech-Datensatz verwendet, um automatisierte Transkriptionen zu erstellen. Die Transkriptionen wurden anschließend mithilfe von Metriken wie der Wortfehlerrate und des Jaro-Winkler-Ähnlichkeitsmaß bewertet. Die Ergebnisse dieser Untersuchung verdeutlichen, dass die Genauigkeit des ASR-Modells „Whisper“ von OpenAI von verschiedenen Faktoren abhängig ist. Hierzu zählen die Sprache, verschiedene Dialekte, Akzente, Altersgruppen und Themengebiete. Im Gesamten betrachtet konnte die Transkription von englischen im Vergleich zu deutschen Daten präziser durchgeführt werden. Trotz gelegentlicher Fehler zeigten die durch ASR generierten Transkriptionen eine signifikante Ähnlichkeit zur Ground Truth, was auf ihr Potenzial für die Transkription von Podcasts hinweist. Ein Vergleich verschiedener Modellgrößen ergab, dass größere Modelle eine überlegene Leistung erbrachten. Diese robusten Ergebnisse legen nahe, dass Transkriptionen eine sinnvolle Ergänzung zu den vorhandenen Metadaten von Podcasts darstellen und zur Verbesserung von Retrieval-Anwendungen genutzt werden können.
Des Weiteren bieten Transkriptionen eine solide Grundlage für die Anwendung fortgeschrittener Methoden des NLP zur Extraktion entscheidender Informationen, wie beispielsweise Verweise und Entitäten, welche in ein vernetztes System, wie Knowledge Graphs, integriert werden können, um Podcast-Inhalte auf effiziente Weise zu strukturieren und Verknüpfungen zu anderen Wissensquellen herzustellen.
This thesis aims to extend an existing Open Educational Resource (OER), which is available as a GitHub repository, and provide an organized introduction to basic machine learning (ML) concepts and algorithms. Further models, followed by structured metadata for each object, will be included while adhering to the contribution guidelines of the OER and following the CC license. The Machine-Learning-OER Basics repository intends to provide a wide range of benefits by enabling diverse users to apply and distribute machine learning algorithms. The goal of this digital collection is to fill the existing gap for instructional material on using machine learning in OER as well as make it easier to learn ML concepts effectively. These ML models are developed using the programming language Python and the library scikit-learn, among other standard libraries. Jupyter Notebook will make it straightforward for the user to explore the code. In order to apply the models to various practical scenarios, a non-specific data set is selected. This work is considered a solution approach in that it includes adding classification models.
A performance comparison of the models is conducted. This comparative analysis evaluates the efficiency of each model. The examination includes various metrics for measurement. This work serves as a written extension, providing comprehensive background information on the algorithms utilized within the repositories and the performance comparison.
Für die einfache Literaturrecherche von Fachinformationen bietet die ZB MED eine Literaturdatenbank namens LIVIVO an. Um eine thematische Suche zu ermöglichen, befasst sich diese Bachelorarbeit mit der Themenklassifikation der in der Datenbank vorhandenen Publikationen. Das Ziel der Arbeit besteht darin, den Korpus für eine automatisierte Klassifizierung aufzubereiten, um eine relevante Klasseneinteilung zu erzielen. Ausgehend von der Annahme, dass eine Textklassifizierung durch spezifische Terme und Schlüsselwörter gezieltere und aussagekräftigere Ergebnisse liefern kann, wird eine themenspezifische Aufbereitung mithilfe von Wissensorganisationssystemen (Thesauri) eingebunden. Hierzu wird im Vorhinein eine automatisierte Spracherkennung der Publikationen implementiert. Nach der Indexierung der Schlüsselwörter in den Dokumenten werden zwei statistische Klassifikationsmodelle für die Klassifizierung angewandt. Hierzu gehört die Latent Dirichlet Allocation, sowie der Stochastic Gradient Descent Classifier. Abschließend wird die automatische Schlagwortextraktion mit einer intellektuellen Themenanalyse verglichen und die Performance der Klassifizierung mit den aufbereiteten In Input-Daten auf eine Verbesserung hin analysiert.
Die Konvertierung von bibliographischen Daten in andere Formate stellt eine häufige Herausforderung in der bibliothekarischen Arbeit dar, wie die Systemumstellung vieler Bibliotheken auf das Bibliotheksmanagementsystem Alma zeigt. Dabei ist die verlustfreie Durchführung dieses Prozesses eine besondere Schwierigkeit, die aus der Verschiedenheit der Formate resultiert. Ein konkretes Beispiel für eine solche zu konvertierende Datenmenge ist die Literaturdatenbank "Literatur zur Informationserschließung", welche 44.218 bibliographische Einträge enthält und von einer modifizierten Form des Allegro-Neutralformats in das RIS-Format konvertiert werden soll. Dabei wird auf der Grundlage von erarbeiteten Konkordanzen zwischen beiden Formaten und Untersuchungen der Datenbank mit regulären Ausdrücken, sowie einem Pythonskript ein Programm geschrieben, das die Datenbank in das Zielformat konvertieren soll. Das Ergebnis wird anhand einer proportionalen Schichtenstichprobe evaluiert. Abschließend werden der Entwicklungsprozess und das Ergebnis hinsichtlich des stattgefundenen Informationsverlustes bei dem Konvertierungsprozess reflektiert.
Das vorliegende Dokument bildet den schriftlichen Teil einer medienpraktischen Bachelorarbeit im Studiengang Online Redaktion an der Technischen Hochschule (TH) Köln. Ziel dieses Projektes ist die Entwicklung einer Website für das Musiklabel Lust Klub. In der Musikbranche ist es immer schwieriger geworden Fuß zu fassen und Geld zu verdienen. Vor diesem Hintergrund hat Lust Klub es sich zur Aufgabe gemacht, über Community Building lokale Künstler aus dem Bereich der elektronischen Musik zu fördern, ihnen eine Plattform zu bieten, Buchungen zu vermitteln sowie ihre Musik zu verlegen und zu verbreiten. Dabei verfolgt Lust Klub auch kommerzielle Interessen. Die Website erweitert die bereits bestehende Online-Präsenz, bündelt diese und bietet eine zentrale Anlaufstelle für Informationen, Sound-Beispiele und Referenzen. Darüber hinaus vereinfacht die Website den Booking-Prozess durch ein benutzerfreundliches Formular. Um dieses Ziel zu erreichen, wird zunächst ein Benchmarking durchgeführt, um Best Practices zu ermitteln. Anschließend werden Personas und User Stories verwendet, um die Zielgruppe zu visualisieren und zu definieren. Basierend auf diesen Erkenntnissen erfolgt die Konzeption und Erstellung der Website, wobei WordPress und Elementor Pro genutzt wird. Dieses Projekt vereint konzeptionelle, kreative Überlegungen und Analysen mit praktischer Umsetzung, um eine maßgeschneiderte Online-Präsenz für Lust Klub zu schaffen und gleichzeitig die Bedürfnisse der Zielgruppe bestmöglich zu erfüllen. Schlussendlich wird die Umsetzung des Konzepts reflektiert.
Compact Discs sind Datenträger, die in großer Zahl in den Beständen von Gedächtnisorganisationen vorkommen. Weil die Datenträger nur begrenzt haltbar sind, entwickelt sich immer stärker die Notwendigkeit, die Daten von den Trägern zu trennen und gesondert zu archivieren. Die Arbeit gibt einen Überblick darüber, welche Institutionen das Problem auf welche Art und Weise angehen und schlägt Perspektiven für die Zukunft vor. Im theoretischen Teil wird der Begriff „Gedächtnisorganisation“ geklärt, es wird die Bewahrungsproblematik von CDs ausgeführt und es werden Migration und die Erstellung von Disc Images zur Emulation als Archivierungsoptionen erläutert. Im Praxisteil werden mithilfe von Interviews und Literaturarbeit verschiedene Einrichtungen und deren individuelle Strategien vorgestellt. Es zeigt sich deutlich, dass die Langzeitarchivierung optischer Datenträger aktuell noch ein sehr individuelles Thema ist, das Einrichtungen primär aus eigener Motivation angehen und bislang nur wenig Zusammenarbeit stattfindet, um gemeinsame Lösungen zu entwickeln. Abschließend werden Vorschläge formuliert, was unternommen werden kann, um die Langzeitarchivierung in Deutschland zu vereinheitlichen und zu rationalisieren.
Die vorliegende Bachelorarbeit befasst sich mit der Frage, inwiefern öffentliche Bibliothekare in Kinofilmen und Fernsehserien sich vom Berufsbild deutscher und internationaler Bibliotheksverbände unterscheiden. Ziel der Arbeit ist es, sowohl Gemeinsamkeiten als auch Unterschiede zu identifizieren, die zwischen den stereotypischen Verfilmungen und der tatsächlichen beruflichen Rolle von Bibliothekaren auftreten. Insgesamt werden acht Kinofilme und elf Fernsehserien, in denen öffentliche Bibliothekare als Charaktere vorkommen, im Zeitraum der letzten fünf Jahre untersucht. Die Ergebnisse der formalen und inhaltlichen Kategorien stehen dabei im Mittelpunkt der Analyse, da sie dazu beitragen, die Bedeutung einer differenzierten Darstellung in den Medien zu betonen. Sie liefert zudem Impulse für weitere Forschungsansätze zur Repräsentation von Berufen und deren Einfluss auf die öffentliche Wahrnehmung.
Werden Sprachmodelle auf neue Daten trainiert oder bereits vortrainierte Sprachmodelle durch Finetuning auf neue Daten fein abgestimmt, so lernt ein Sprachmodell jegliche Informationen aus den verwendeten Trainingsdaten. Meistens beinhalten die Trainingsdaten einen Bias. Dieser Bias wird ebenfalls durch die Sprachmodelle aufgenommen und im Antwortverhalten verbreitet. Besonders auf die politische Domäne kann sich diese Eigenschaft negativ auswirken. So können Sprachmodelle durch Finetuning auf politische voreingenommene Daten fein abgestimmt werden, welche anschließend verwendet werden können, um Applikationen zu entwickeln, welche die politische Meinung der Benutzer*Innen beeinflussen sollen.
Das Ziel dieser Arbeit ist, zu untersuchen wie sich verschiedene Sprachmodelle auf die Reproduktion der politischen Voreingenommenheit auswirken und welche Auswirkungen verschiedene Faktoren aus dem Trainingsdatensatz auf die Reproduktion der politischen Voreingenommenheit haben.
Dafür wurde ein Web Scraper angepasst, um den dadurch generierten Datensatz durch weitere Daten zu erweitern. Bei den Daten im Datensatz handelt es sich um Nachrichtendaten der amerikanischen Politikdomäne. Dieser Datensatz wurde durch die Volltexte der Nachrichten erweitert. Außerdem wurden zusätzlich die Zitate aus den Volltexten entfernt, um die Auswirkung der Zitate auf die Reproduktion der politischen Voreingenommenheit zu untersuchen. Anschließend wurden drei Sprachmodelle, welche auf unterschiedlichen Komponenten der Transformer-Architektur basieren, auf die Schlagzeilen, Volltexte und Volltexte ohne Zitate der linken und rechten Nachrichtendaten fein abgestimmt. Nach dem Finetuning haben die Sprachmodelle Texte für Eingaben generiert. Die generierten Texte wurden durch ein Evaluationsschema auf die politische Voreingenommenheit evaluiert. Dabei wurde die politische Voreingenommenheit am stärksten und genausten durch das Sprachmodell DistilGPT2 reproduziert, welches beim Finetuning die Volltexte verwendet hat. Das Sprachmodell DistilGPT2 basiert auf der Decoder-Komponente der Transformer-Architektur. Stehen viele Daten beim Finetuning zur Verfügung, führt das Verwenden der Volltexte ohne Zitate beim Finetuning zu einer weiteren Verstärkung der Reproduktion der politischen Voreingenommenheit.
In den Vereinigten Staaten werden Bücher aufgrund ihres Inhalts verboten. In vielen Fällen sind Medien mit LGBTQIA+ Themen oder Hauptcharakteren betroffen. Über diese „Book Bans“ Situation wird ein Überblick gegeben. Das Thema LGBTQIA+ ist ebenfalls in deutschen Bibliotheken von Relevanz. Es wurde untersucht, wie in ausgewählten Bibliotheken mit dem Thema LGBTQIA+ umgegangen wird. Dazu wurden Interviews durchgeführt. Da in den Vereinigten Staaten Öffentliche Bibliotheken und Schulbibliotheken von der „Book Bans“ Situation betroffen sind, wurden beide Bibliotheksarten untersucht. Es wird der Umgang mit Medien zum Thema LGBTQIA+ dargestellt und auf die Einstellung, sowie die Kenntnisse der interviewten Personen zum Thema LGBTQIA+ eingegangen. Des Weiteren wurden mögliche Veranstaltungen zum Thema LGBTQIA+ miteinbezogen und das Interesse der Nutzer*innen thematisiert. Die Interviews wurden durch eine Bestandsanalyse, bei den ausgewählten Bibliotheken, ergänzt. Die Bestände wurden daraufhin untersucht, ob Medien zu den einzelnen Identitäten der LGBTQIA+ Community vorhanden sind. Anschließend werden Beispiele für Veranstaltungen zum Thema LGBTQIA+ der Stadtbibliothek München genannt. Die Allianz Versicherung wird als ein Beispiel gegeben, wie in anderen Branchen das Thema LGBTQIA+ behandelt wird.
Bereits seit einiger Zeit diskutiert die Wissenschaftsgemeinschaft über eine „Reproduzierbarkeitskrise“, weiter verschärft durch die Allgegenwart von computergestützter Forschung, „Big Data“ und algorithmischer Erkundung und Entscheidungsfindung. Mit Hilfe einer Literaturrecherche gibt diese Arbeit einen strukturierten Überblick über den Stand der Debatte zu Reproduzierbarkeit, einschließlich aktueller Definitionen, Werkzeugen und Mitteln, die Forschenden zur Verfügung stehen, und Maßnahmen, die von Institutionen, Politik und anderen am Forschungsprozess Beteiligten ergriffen wurden. Der Fokus liegt dabei auf den Disziplinen Informatik, Informationswissenschaft und Data Science.
Die Datenschutzbestimmungen rund um die Datenschutzgrundverordnung, das Telekommunikations-Telemedien-Datenschutz-Gesetz und die App-Tracking Transparenz unter dem Betriebssystem iOS 14.5 von Apple haben Werbetreibende in den letzten fünf Jahren vor neue Herausforderungen gestellt und Werbemaßnahmen auf Social Media stark verändert. Insbesondere der Umgang mit Cookies und personenbezogenen Daten wurde stark beschränkt. Expert:innen sind sich einig, dass das Cookie-Tracking bald der Vergangenheit angehören und das Cookieless-Tracking die Online-Werbewelt dominieren wird. Heutzutage gibt es vielfältige Möglichkeiten, mit denen Werbetreibende ihre Zielgruppen ohne große Streuverluste und Cookies entlang des Marketing-Funnels erreichen können. Mit dem serverseitigen Tracking über die Conversion API bietet der Konzern Meta Platforms eine davon. Es bedarf jedoch weiterhin der aktiven Zustimmung der Nutzer:innen, sodass Datenlücken entstehen können und Retargeting-Zielgruppen dadurch nur eingeschränkt einsetzbar sind. Eine alternative Tracking-Methode ist das Arbeiten ausschließlich mit plattformeigenen Daten von Meta. Der Vorteil liegt darin, dass keine zusätzliche Tracking-Zustimmung durch die Nutzer:innen benötigt wird und somit keine Datenlücken entstehen. Auf der anderen Seite können keine Websitedaten analysiert und Daten der Zielgruppe eingesehen werden, das möglicherweise dazu führt, dass wichtige Erkenntnisse im finalen Kaufprozess auf der Website verloren gehen. Aktuell gibt es keine Tracking-Methode, die nur Vorteile mit sich bringt. Vielmehr müssen Werbetreibende durch strategisches Testen individuell entscheiden, welche Tracking-Methoden für ihr Unternehmen am besten geeignet sind. Die vorliegende Arbeit definiert dabei konkrete Handlungsempfehlungen, die Werbetreibende bei der Auswahl der Tracking-Methode für einen strategischen Werbeauftritt auf Meta unterstützen.
Verbesserung der automatischen Dokument-Klassifikation für den Discovery Service LIVIVO von ZB MED
(2023)
Diese Arbeit beschreibt, wie eine Grundlage geschaffen wird, um die Dokumentenklassifikation der Suchmaschine LIVIVO durch eine Eigenentwicklung der ZB-Med zu ersetzen. Das bisher eingesetzte
System basiert auf einer proprietären Software der Averbis GmbH und bietet keine Möglichkeit, diese von ZB-Med anpassen oder erweitern zu lassen. Damit die Klassifikation der Dokumente innerhalb der Datenbank, der Suchmaschine LIVIVO, verbessert werden kann, soll ein neues System entwickelt werden.
Um dieses Ziel erreichen zu können, konzentriert sich diese Arbeit auf eine explorative Analyse der vorhandenen Daten sowie auf die Erstellung erster Klassifikationsmethoden und den damit verbundenen Aufbau eines Textkorpus. Diese neu erstellten Methoden basieren auf existierenden Klassifikationsmodellen wie Stochastic Gradient Descent Classifier (SGDC), Term-Frequenzy Inverse-Document-Frequenzy (TF-IDF) und Latent Dirichlet Allocation (LDA). Die Ergebnisse dieser Modelle
werden diskutiert und evaluiert. Die erstellten Leistungskurven der Modelle und Textkorpi können somit als Vergleich, sowie Grundlage für weitere Arbeiten am System verwendet werden.
Die Zahl der wissenschaftlichen Publikationen steigt von Jahr zu Jahr. Der technologische Fortschritt hat es den Forschenden erleichtert, Daten zu sammeln, zu analysieren und zu verarbeiten. Aufgrund von Faktoren wie dem starken Wettbewerb um Forschungsgelder, Arbeitsplätze und Anerkennung wird die Anzahl und Reichweite von Publikationen als ein wichtiger Indikator für die Leistung und den Erfolg von Wissenschaftlern angesehen. Die Zunahme von Publikationen kann aber auch zu einer Zunahme von unzureichend überprüften oder nicht reproduzierbaren Ergebnissen führen.
Die Integrität der wissenschaftlichen Literatur wird durch das Zurückziehen (engl. Retraction) fehlerhaft veröffentlichter Publikationen gewahrt. Die Kennzeichnung zurückgezogener Artikel in online verfügbaren Quellen ist daher von großer Bedeutung. In dieser Ausarbeitung wird die im Suchportal LIVIVO verfügbare Literatur auf zurückgezogene Artikel untersucht. Retraction Watch, ein amerikanischer Blog, bietet eine Datenbank zurückgezogener Artikel mit fast 40.000 Einträgen. Um die beiden Datensätze miteinander vergleichen zu können, wird eine lokale Datenbankanwendung entwickelt, die einen Abgleich und eine anschließende Analyse ermöglicht. Für die Anreicherung der Metadaten für LIVIVO wird empfohlen, den Digital Object Identifier (DOI), das Datum und die PubMedID, unter der der zurückgezogene Artikel veröffentlicht wurde, mit aufzunehmen.
Der Abgleich gibt einen ersten Eindruck über das Vorhandensein zurückgezogener Artikel im Suchportal. Es wurden 14.206 Einträge identifiziert, wobei in den letzten Jahren ein stetiger Anstieg in der Anzahl zu verzeichnen ist.
Die vorliegende Arbeit beschäftigt sich mit der durch Social Media ausgelösten „Fear of missing out“ (FoMO) und verfolgt das Ziel, auf Basis einer Literaturrecherche die Auswirkungen von FoMO auf das psychische Wohlbefinden in der frühen und mittleren Adoleszenz zu untersuchen. Hierfür werden zunächst das Phänomen FoMO erklärt und dessen Relevanz in der betrachteten Altersphase ermittelt. Darauf aufbauend zeigt diese Arbeit die Zusammenhänge von FoMO und Social Media auf und erläutert die Einflüsse von FoMO auf das psychische Wohlbefinden. FoMO ist gekennzeichnet durch die Angst, andere könnten lohnendere Erfahrungen machen als man selbst. Zentrale Erkenntnisse dieser Arbeit sind, dass FoMO und Social Media in einem engen Zusammenhang stehen und FoMO das psychische Wohlbefinden durch Gefühle von Stress, Niedergeschlagenheit und Unzulänglichkeit stark beeinträchtigten kann.
Dieses Dokument umfasst den schriftlichen Teil meiner medienpraktischen Bachelorarbeit, deren Ziel die Konzeption und praktische Umsetzung eines Gaming-Podcasts ist. Dieser beinhaltet die Formatidee eines kritischen Gesprächs zwischen zwei Videospieler*innen mit unterschiedlichen Spielvorlieben und Expertisen. Ferner wird die Zielgruppe als Gamer*innen identifiziert und eine Analyse relevanter Wettbewerber*innen durchgeführt. Aufbauend auf den Ergebnissen all dessen wird Inhalt, Gestaltung, Technik, und Distribution des Podcasts sowie eine Strategie für einen begleitenden Instagram-Kanal konzipiert. Anschließend wird die Umsetzung beider Konzepte dokumentiert und schlussendlich reflektiert.
Insbesondere Forschende von Einrichtungen in Ländern des Globalen Südens haben bis vor zwanzig Jahren unter Zugangsbeschränkungen zu aktuellen Forschungsergebnissen, in Form hoher Subskriptionsgebühren wissenschaftlicher Fachzeitschriften, gelitten. Mit der Budapester Open Access Initiative von 2002 wurde die Hoffnung auf eine Verbesserung der Zugangsverhältnisse sowie der Wahrnehmung von wissenschaftlichen Publikationen aus Ländern des Globalen Südens geweckt. Das Ziel der vorliegenden Arbeit ist es, am Beispiel Kolumbiens als ein Land des Globalen Südens, zu untersuchen, ob positive Auswirkungen der Open Access-Maßnahmen auf den Publikationsoutput wissenschaftlicher Erkenntnisse, den Zugang zu Literatur und die Wahrnehmung des Publikationsoutputs empirisch belegbar sind. Dazu wird die folgende Forschungsfrage gestellt: Welche Auswirkungen haben die Open Access-Maßnahmen Kolumbiens auf die Zugangsmöglichkeiten kolumbianischer Autor:innen zu Artikeln impact-starker Zeitschriften und die Wahrnehmung kolumbianischer Publikationen von 2002 bis 2022 gehabt? Um die Forschungsfrage zu beantworten, wurde eine quantitative Literaturstudie in der Datenbank Scopus zum Publikationsoutput Kolumbien von 2002 bis 2022 durchgeführt. Speziell wurden Daten in Bezug auf die Entwicklung des Open Access-Publikationsaufkommens Kolumbiens inklusive und exklusive internationaler Mehrautor:innenschaften erhoben. Zusätzlich wurden die Daten der Referenzen und die Zitationsrate der meistzitierten kolumbianischen Open Access-Veröffentlichungen ermittelt sowie der Anteil der kolumbianischen Publikationen in den Referenzen des meistzitierten, internationalen Publikationsaufkommens von 2002 bis 2022 gemessen und im Hinblick auf das zeitliche Auftreten von Open Access-Maßnahmen interpretiert.
Die ergriffenen Open Access-Maßnahmen Kolumbiens innerhalb der vergangenen zwei Jahrzehnte korrelieren mit einer kontinuierlichen Wachstumsrate des Open Access-Publikationsaufkommens sowie einem erhöhtem Zugang zu Artikeln impact-starker Zeitschriften und einer gestiegenen Wahrnehmung des kolumbianischen wissenschaftlichen Publikationsoutputs. Aufgrund der zum Erstellungszeitpunkt der vorliegenden Arbeit kürzlich beschlossenen nationalen Open Science Policy werden weiterführende Studien zur Auswirkung auf den Publikationsoutput Kolumbiens empfohlen.
Immer mehr Menschen wenden sich von den Nachrichten ab. Dieses Phänomen, das als News Avoidance bezeichnet wird, hat in den letzten Jahren deutlich zugenommen und beschäftigt sowohl die Wissenschaft als auch Journalist*innen aus der Praxis. Letztere haben auf der Suche nach Lösungen den Ansatz des Konstruktiven Journalismus entwickelt, der sich mithilfe konstruktiver Ansätze dem Negativ-Bias der Nachrichten entgegenstellen will. Diese Arbeit beschäftigt sich mit der Frage, wie sich der Blick aus der Praxis der konstruktiven Journalist*innen auf das Thema News Avoidance von dem der Wissenschaftler*innen unterscheidet. Zur Beantwortung dieser Frage wurde eine Literaturrecherche durchgeführt, die sowohl aktuelle wissenschaftliche Publikationen als auch Beiträge zum praktischen Diskurs wie Newsletter, Podcasts oder Blog-Beiträge umfasst.
Der 1926 geborene Jurist und Rechtsphilosoph Hermann Klenner gilt als einer der angesehensten Rechtswissenschaftler der DDR. Die auf Vollständigkeit ausgelegten Hermann-Klenner-Schriften (HKS) umfassen die von ihrem Autoren gesammelten Publikationen von 1952 bis in die heutige Zeit. Ende 2021 übergab Klenner die HKS an die wissenschaftliche Spezialbibliothek der Rosa-Luxemburg-Stiftung (RLSB) in Berlin. Die vorliegende Arbeit rekonstruiert die Integration der HKS als moderne Sondersammlung in den Bestand der RLSB unter dem Aspekt der inhaltlichen Erschließung. Nach Herausarbeitung des Stellenwerts inhaltlicher Erschließung in der einschlägigen Literatur zu Sondersammlungen werden zunächst mit der Thomas-Mann-Sammlung der ULB Düsseldorf und der Wilhelm-Fraenger-Bibliothek in Potsdam zwei Fallbeispiele moderner Sondersammlungen im Hinblick auf Besonderheiten bei der Indexierung analysiert. Im Anschluss wird aus den Faktoren Zielgruppe, Rahmenbedingungen und Charakter der HKS das angepaßte Erschließungskonzept der RLSB abgeleitet und expliziert sowie einer kritischen Bewertung unterzogen. Im letzten Kapitel werden die Ergebnisse zusammengefasst und Optimierungspotenziale identifiziert.
Das Ziel der vorliegenden Arbeit ist es, die Berichterstattung des öffentlichrechtlichen Nachrichtenformats Tagesschau auf dem sozialen Netzwerk TikTok zu untersuchen und zu bewerten, ob das Nachrichtenformat Inhalte nach journalistischen Kriterien und spezifischen Aspekten des Internets und der Plattform TikTok vermittelt. Zur Beantwortung der Forschungsfrage wurde eine qualitative Analyse mit deduktiver Kategorienanwendung durchgeführt. Die Analyse zeigte, dass die Tagesschau sowohl journalistische, internetspezifische als auch TikTok-spezifische Kriterien abdecken konnte und somit als Best-Practice-Beispiel für etablierte Medienformate auf sozialen Plattformen bewertet werden kann. Der Kanal der Tagesschau konnte die Nachrichten an die Formate der Plattform anpassen und gleichzeitig klassische Aspekte journalistischer Integrität wahren.
Corporate Podcasts als Content-Marketing-Instrument in der deutschen Unternehmenskommunikation
(2023)
Trotz steigender Relevanz nutzen nur wenige der deutschen Unternehmen Corporate Podcasts innerhalb ihrer Unternehmenskommunikation. Ziel dieser Bachelorarbeit ist, herauszustellen, inwiefern Corporate Podcasts für deutsche Unternehmen im privatwirtschaftlichen Sektor ein geeignetes Content-Marketing-Instrument in der Unternehmenskommunikation sind und wie diese genutzt werden können. Zur Beantwortung der Forschungsfrage erfolgt eine theoretische Auseinandersetzung, welche sich auf den aktuellen Forschungsstand bezieht. Diese theoretische Bachelorarbeit zeigt, dass deutsche Unternehmen im privatwirtschaftlichen Sektor einen Wettbewerbsvorteil durch die Nutzung von Corporate Podcasts erzeugen und die Umsetzung ohne technische Vorkenntnisse bezüglich Podcasts möglich ist. Weiterführende Forschung im Bereich Corporate Podcasts wäre aufgrund nicht existenter Studien zur Thematik insbesondere in Form quantitativer Studien wertvoll.