Refine
Year of publication
Document Type
- Bachelor Thesis (248) (remove)
Has Fulltext
- yes (248) (remove)
Keywords
- Öffentliche Bibliothek (16)
- Informationskompetenz (12)
- Social Media (10)
- Bibliothek (6)
- Journalismus (6)
- Barrierefreiheit (5)
- Information Retrieval (5)
- Konzeption (5)
- Medienkompetenz (5)
- Open Access (5)
Der digitale Wandel, getrieben durch die Evolution von „New Media“ mit ihren interaktiven, multimedialen Merkmalen und globaler Zugänglichkeit, hat nachhaltige Auswirkungen auf die Bereiche Journalismus, Unterhaltung und Wissenschaftskommunikation hinterlassen. Innerhalb dieses Rahmens dienen Podcasts als zugängliche, offene Plattform zur Verbreitung wissenschaftlicher Informationen und zur Förderung interdisziplinärer Diskussionen, wobei Herausforderungen im Hinblick auf die auditiven Eigenschaften und die Notwendigkeit evidenzbasierter Kommunikation bestehen. Das Hauptziel dieser Studie besteht darin, die jüngsten Fortschritte in KI-gesteuerten Transkriptionsverfahren zu nutzen, um effiziente und hochwertige Transkriptionen zu realisieren. Darüber hinaus werden neue Ansätze zur Steigerung der Auffindbarkeit, Zugänglichkeit und Verbreitung wissenschaftlicher Inhalte diskutiert. Für diese Studie wurden Audio-Daten aus dem bilingualen Common Voice-Datensatz und dem englisch-sprachigen GigaSpeech-Datensatz verwendet, um automatisierte Transkriptionen zu erstellen. Die Transkriptionen wurden anschließend mithilfe von Metriken wie der Wortfehlerrate und des Jaro-Winkler-Ähnlichkeitsmaß bewertet. Die Ergebnisse dieser Untersuchung verdeutlichen, dass die Genauigkeit des ASR-Modells „Whisper“ von OpenAI von verschiedenen Faktoren abhängig ist. Hierzu zählen die Sprache, verschiedene Dialekte, Akzente, Altersgruppen und Themengebiete. Im Gesamten betrachtet konnte die Transkription von englischen im Vergleich zu deutschen Daten präziser durchgeführt werden. Trotz gelegentlicher Fehler zeigten die durch ASR generierten Transkriptionen eine signifikante Ähnlichkeit zur Ground Truth, was auf ihr Potenzial für die Transkription von Podcasts hinweist. Ein Vergleich verschiedener Modellgrößen ergab, dass größere Modelle eine überlegene Leistung erbrachten. Diese robusten Ergebnisse legen nahe, dass Transkriptionen eine sinnvolle Ergänzung zu den vorhandenen Metadaten von Podcasts darstellen und zur Verbesserung von Retrieval-Anwendungen genutzt werden können.
Des Weiteren bieten Transkriptionen eine solide Grundlage für die Anwendung fortgeschrittener Methoden des NLP zur Extraktion entscheidender Informationen, wie beispielsweise Verweise und Entitäten, welche in ein vernetztes System, wie Knowledge Graphs, integriert werden können, um Podcast-Inhalte auf effiziente Weise zu strukturieren und Verknüpfungen zu anderen Wissensquellen herzustellen.
This thesis aims to extend an existing Open Educational Resource (OER), which is available as a GitHub repository, and provide an organized introduction to basic machine learning (ML) concepts and algorithms. Further models, followed by structured metadata for each object, will be included while adhering to the contribution guidelines of the OER and following the CC license. The Machine-Learning-OER Basics repository intends to provide a wide range of benefits by enabling diverse users to apply and distribute machine learning algorithms. The goal of this digital collection is to fill the existing gap for instructional material on using machine learning in OER as well as make it easier to learn ML concepts effectively. These ML models are developed using the programming language Python and the library scikit-learn, among other standard libraries. Jupyter Notebook will make it straightforward for the user to explore the code. In order to apply the models to various practical scenarios, a non-specific data set is selected. This work is considered a solution approach in that it includes adding classification models.
A performance comparison of the models is conducted. This comparative analysis evaluates the efficiency of each model. The examination includes various metrics for measurement. This work serves as a written extension, providing comprehensive background information on the algorithms utilized within the repositories and the performance comparison.
Für die einfache Literaturrecherche von Fachinformationen bietet die ZB MED eine Literaturdatenbank namens LIVIVO an. Um eine thematische Suche zu ermöglichen, befasst sich diese Bachelorarbeit mit der Themenklassifikation der in der Datenbank vorhandenen Publikationen. Das Ziel der Arbeit besteht darin, den Korpus für eine automatisierte Klassifizierung aufzubereiten, um eine relevante Klasseneinteilung zu erzielen. Ausgehend von der Annahme, dass eine Textklassifizierung durch spezifische Terme und Schlüsselwörter gezieltere und aussagekräftigere Ergebnisse liefern kann, wird eine themenspezifische Aufbereitung mithilfe von Wissensorganisationssystemen (Thesauri) eingebunden. Hierzu wird im Vorhinein eine automatisierte Spracherkennung der Publikationen implementiert. Nach der Indexierung der Schlüsselwörter in den Dokumenten werden zwei statistische Klassifikationsmodelle für die Klassifizierung angewandt. Hierzu gehört die Latent Dirichlet Allocation, sowie der Stochastic Gradient Descent Classifier. Abschließend wird die automatische Schlagwortextraktion mit einer intellektuellen Themenanalyse verglichen und die Performance der Klassifizierung mit den aufbereiteten In Input-Daten auf eine Verbesserung hin analysiert.
Die Konvertierung von bibliographischen Daten in andere Formate stellt eine häufige Herausforderung in der bibliothekarischen Arbeit dar, wie die Systemumstellung vieler Bibliotheken auf das Bibliotheksmanagementsystem Alma zeigt. Dabei ist die verlustfreie Durchführung dieses Prozesses eine besondere Schwierigkeit, die aus der Verschiedenheit der Formate resultiert. Ein konkretes Beispiel für eine solche zu konvertierende Datenmenge ist die Literaturdatenbank "Literatur zur Informationserschließung", welche 44.218 bibliographische Einträge enthält und von einer modifizierten Form des Allegro-Neutralformats in das RIS-Format konvertiert werden soll. Dabei wird auf der Grundlage von erarbeiteten Konkordanzen zwischen beiden Formaten und Untersuchungen der Datenbank mit regulären Ausdrücken, sowie einem Pythonskript ein Programm geschrieben, das die Datenbank in das Zielformat konvertieren soll. Das Ergebnis wird anhand einer proportionalen Schichtenstichprobe evaluiert. Abschließend werden der Entwicklungsprozess und das Ergebnis hinsichtlich des stattgefundenen Informationsverlustes bei dem Konvertierungsprozess reflektiert.
Das vorliegende Dokument bildet den schriftlichen Teil einer medienpraktischen Bachelorarbeit im Studiengang Online Redaktion an der Technischen Hochschule (TH) Köln. Ziel dieses Projektes ist die Entwicklung einer Website für das Musiklabel Lust Klub. In der Musikbranche ist es immer schwieriger geworden Fuß zu fassen und Geld zu verdienen. Vor diesem Hintergrund hat Lust Klub es sich zur Aufgabe gemacht, über Community Building lokale Künstler aus dem Bereich der elektronischen Musik zu fördern, ihnen eine Plattform zu bieten, Buchungen zu vermitteln sowie ihre Musik zu verlegen und zu verbreiten. Dabei verfolgt Lust Klub auch kommerzielle Interessen. Die Website erweitert die bereits bestehende Online-Präsenz, bündelt diese und bietet eine zentrale Anlaufstelle für Informationen, Sound-Beispiele und Referenzen. Darüber hinaus vereinfacht die Website den Booking-Prozess durch ein benutzerfreundliches Formular. Um dieses Ziel zu erreichen, wird zunächst ein Benchmarking durchgeführt, um Best Practices zu ermitteln. Anschließend werden Personas und User Stories verwendet, um die Zielgruppe zu visualisieren und zu definieren. Basierend auf diesen Erkenntnissen erfolgt die Konzeption und Erstellung der Website, wobei WordPress und Elementor Pro genutzt wird. Dieses Projekt vereint konzeptionelle, kreative Überlegungen und Analysen mit praktischer Umsetzung, um eine maßgeschneiderte Online-Präsenz für Lust Klub zu schaffen und gleichzeitig die Bedürfnisse der Zielgruppe bestmöglich zu erfüllen. Schlussendlich wird die Umsetzung des Konzepts reflektiert.
Compact Discs sind Datenträger, die in großer Zahl in den Beständen von Gedächtnisorganisationen vorkommen. Weil die Datenträger nur begrenzt haltbar sind, entwickelt sich immer stärker die Notwendigkeit, die Daten von den Trägern zu trennen und gesondert zu archivieren. Die Arbeit gibt einen Überblick darüber, welche Institutionen das Problem auf welche Art und Weise angehen und schlägt Perspektiven für die Zukunft vor. Im theoretischen Teil wird der Begriff „Gedächtnisorganisation“ geklärt, es wird die Bewahrungsproblematik von CDs ausgeführt und es werden Migration und die Erstellung von Disc Images zur Emulation als Archivierungsoptionen erläutert. Im Praxisteil werden mithilfe von Interviews und Literaturarbeit verschiedene Einrichtungen und deren individuelle Strategien vorgestellt. Es zeigt sich deutlich, dass die Langzeitarchivierung optischer Datenträger aktuell noch ein sehr individuelles Thema ist, das Einrichtungen primär aus eigener Motivation angehen und bislang nur wenig Zusammenarbeit stattfindet, um gemeinsame Lösungen zu entwickeln. Abschließend werden Vorschläge formuliert, was unternommen werden kann, um die Langzeitarchivierung in Deutschland zu vereinheitlichen und zu rationalisieren.
Die vorliegende Bachelorarbeit befasst sich mit der Frage, inwiefern öffentliche Bibliothekare in Kinofilmen und Fernsehserien sich vom Berufsbild deutscher und internationaler Bibliotheksverbände unterscheiden. Ziel der Arbeit ist es, sowohl Gemeinsamkeiten als auch Unterschiede zu identifizieren, die zwischen den stereotypischen Verfilmungen und der tatsächlichen beruflichen Rolle von Bibliothekaren auftreten. Insgesamt werden acht Kinofilme und elf Fernsehserien, in denen öffentliche Bibliothekare als Charaktere vorkommen, im Zeitraum der letzten fünf Jahre untersucht. Die Ergebnisse der formalen und inhaltlichen Kategorien stehen dabei im Mittelpunkt der Analyse, da sie dazu beitragen, die Bedeutung einer differenzierten Darstellung in den Medien zu betonen. Sie liefert zudem Impulse für weitere Forschungsansätze zur Repräsentation von Berufen und deren Einfluss auf die öffentliche Wahrnehmung.
Werden Sprachmodelle auf neue Daten trainiert oder bereits vortrainierte Sprachmodelle durch Finetuning auf neue Daten fein abgestimmt, so lernt ein Sprachmodell jegliche Informationen aus den verwendeten Trainingsdaten. Meistens beinhalten die Trainingsdaten einen Bias. Dieser Bias wird ebenfalls durch die Sprachmodelle aufgenommen und im Antwortverhalten verbreitet. Besonders auf die politische Domäne kann sich diese Eigenschaft negativ auswirken. So können Sprachmodelle durch Finetuning auf politische voreingenommene Daten fein abgestimmt werden, welche anschließend verwendet werden können, um Applikationen zu entwickeln, welche die politische Meinung der Benutzer*Innen beeinflussen sollen.
Das Ziel dieser Arbeit ist, zu untersuchen wie sich verschiedene Sprachmodelle auf die Reproduktion der politischen Voreingenommenheit auswirken und welche Auswirkungen verschiedene Faktoren aus dem Trainingsdatensatz auf die Reproduktion der politischen Voreingenommenheit haben.
Dafür wurde ein Web Scraper angepasst, um den dadurch generierten Datensatz durch weitere Daten zu erweitern. Bei den Daten im Datensatz handelt es sich um Nachrichtendaten der amerikanischen Politikdomäne. Dieser Datensatz wurde durch die Volltexte der Nachrichten erweitert. Außerdem wurden zusätzlich die Zitate aus den Volltexten entfernt, um die Auswirkung der Zitate auf die Reproduktion der politischen Voreingenommenheit zu untersuchen. Anschließend wurden drei Sprachmodelle, welche auf unterschiedlichen Komponenten der Transformer-Architektur basieren, auf die Schlagzeilen, Volltexte und Volltexte ohne Zitate der linken und rechten Nachrichtendaten fein abgestimmt. Nach dem Finetuning haben die Sprachmodelle Texte für Eingaben generiert. Die generierten Texte wurden durch ein Evaluationsschema auf die politische Voreingenommenheit evaluiert. Dabei wurde die politische Voreingenommenheit am stärksten und genausten durch das Sprachmodell DistilGPT2 reproduziert, welches beim Finetuning die Volltexte verwendet hat. Das Sprachmodell DistilGPT2 basiert auf der Decoder-Komponente der Transformer-Architektur. Stehen viele Daten beim Finetuning zur Verfügung, führt das Verwenden der Volltexte ohne Zitate beim Finetuning zu einer weiteren Verstärkung der Reproduktion der politischen Voreingenommenheit.
In den Vereinigten Staaten werden Bücher aufgrund ihres Inhalts verboten. In vielen Fällen sind Medien mit LGBTQIA+ Themen oder Hauptcharakteren betroffen. Über diese „Book Bans“ Situation wird ein Überblick gegeben. Das Thema LGBTQIA+ ist ebenfalls in deutschen Bibliotheken von Relevanz. Es wurde untersucht, wie in ausgewählten Bibliotheken mit dem Thema LGBTQIA+ umgegangen wird. Dazu wurden Interviews durchgeführt. Da in den Vereinigten Staaten Öffentliche Bibliotheken und Schulbibliotheken von der „Book Bans“ Situation betroffen sind, wurden beide Bibliotheksarten untersucht. Es wird der Umgang mit Medien zum Thema LGBTQIA+ dargestellt und auf die Einstellung, sowie die Kenntnisse der interviewten Personen zum Thema LGBTQIA+ eingegangen. Des Weiteren wurden mögliche Veranstaltungen zum Thema LGBTQIA+ miteinbezogen und das Interesse der Nutzer*innen thematisiert. Die Interviews wurden durch eine Bestandsanalyse, bei den ausgewählten Bibliotheken, ergänzt. Die Bestände wurden daraufhin untersucht, ob Medien zu den einzelnen Identitäten der LGBTQIA+ Community vorhanden sind. Anschließend werden Beispiele für Veranstaltungen zum Thema LGBTQIA+ der Stadtbibliothek München genannt. Die Allianz Versicherung wird als ein Beispiel gegeben, wie in anderen Branchen das Thema LGBTQIA+ behandelt wird.
Bereits seit einiger Zeit diskutiert die Wissenschaftsgemeinschaft über eine „Reproduzierbarkeitskrise“, weiter verschärft durch die Allgegenwart von computergestützter Forschung, „Big Data“ und algorithmischer Erkundung und Entscheidungsfindung. Mit Hilfe einer Literaturrecherche gibt diese Arbeit einen strukturierten Überblick über den Stand der Debatte zu Reproduzierbarkeit, einschließlich aktueller Definitionen, Werkzeugen und Mitteln, die Forschenden zur Verfügung stehen, und Maßnahmen, die von Institutionen, Politik und anderen am Forschungsprozess Beteiligten ergriffen wurden. Der Fokus liegt dabei auf den Disziplinen Informatik, Informationswissenschaft und Data Science.
Die Datenschutzbestimmungen rund um die Datenschutzgrundverordnung, das Telekommunikations-Telemedien-Datenschutz-Gesetz und die App-Tracking Transparenz unter dem Betriebssystem iOS 14.5 von Apple haben Werbetreibende in den letzten fünf Jahren vor neue Herausforderungen gestellt und Werbemaßnahmen auf Social Media stark verändert. Insbesondere der Umgang mit Cookies und personenbezogenen Daten wurde stark beschränkt. Expert:innen sind sich einig, dass das Cookie-Tracking bald der Vergangenheit angehören und das Cookieless-Tracking die Online-Werbewelt dominieren wird. Heutzutage gibt es vielfältige Möglichkeiten, mit denen Werbetreibende ihre Zielgruppen ohne große Streuverluste und Cookies entlang des Marketing-Funnels erreichen können. Mit dem serverseitigen Tracking über die Conversion API bietet der Konzern Meta Platforms eine davon. Es bedarf jedoch weiterhin der aktiven Zustimmung der Nutzer:innen, sodass Datenlücken entstehen können und Retargeting-Zielgruppen dadurch nur eingeschränkt einsetzbar sind. Eine alternative Tracking-Methode ist das Arbeiten ausschließlich mit plattformeigenen Daten von Meta. Der Vorteil liegt darin, dass keine zusätzliche Tracking-Zustimmung durch die Nutzer:innen benötigt wird und somit keine Datenlücken entstehen. Auf der anderen Seite können keine Websitedaten analysiert und Daten der Zielgruppe eingesehen werden, das möglicherweise dazu führt, dass wichtige Erkenntnisse im finalen Kaufprozess auf der Website verloren gehen. Aktuell gibt es keine Tracking-Methode, die nur Vorteile mit sich bringt. Vielmehr müssen Werbetreibende durch strategisches Testen individuell entscheiden, welche Tracking-Methoden für ihr Unternehmen am besten geeignet sind. Die vorliegende Arbeit definiert dabei konkrete Handlungsempfehlungen, die Werbetreibende bei der Auswahl der Tracking-Methode für einen strategischen Werbeauftritt auf Meta unterstützen.
Verbesserung der automatischen Dokument-Klassifikation für den Discovery Service LIVIVO von ZB MED
(2023)
Diese Arbeit beschreibt, wie eine Grundlage geschaffen wird, um die Dokumentenklassifikation der Suchmaschine LIVIVO durch eine Eigenentwicklung der ZB-Med zu ersetzen. Das bisher eingesetzte
System basiert auf einer proprietären Software der Averbis GmbH und bietet keine Möglichkeit, diese von ZB-Med anpassen oder erweitern zu lassen. Damit die Klassifikation der Dokumente innerhalb der Datenbank, der Suchmaschine LIVIVO, verbessert werden kann, soll ein neues System entwickelt werden.
Um dieses Ziel erreichen zu können, konzentriert sich diese Arbeit auf eine explorative Analyse der vorhandenen Daten sowie auf die Erstellung erster Klassifikationsmethoden und den damit verbundenen Aufbau eines Textkorpus. Diese neu erstellten Methoden basieren auf existierenden Klassifikationsmodellen wie Stochastic Gradient Descent Classifier (SGDC), Term-Frequenzy Inverse-Document-Frequenzy (TF-IDF) und Latent Dirichlet Allocation (LDA). Die Ergebnisse dieser Modelle
werden diskutiert und evaluiert. Die erstellten Leistungskurven der Modelle und Textkorpi können somit als Vergleich, sowie Grundlage für weitere Arbeiten am System verwendet werden.
Die Zahl der wissenschaftlichen Publikationen steigt von Jahr zu Jahr. Der technologische Fortschritt hat es den Forschenden erleichtert, Daten zu sammeln, zu analysieren und zu verarbeiten. Aufgrund von Faktoren wie dem starken Wettbewerb um Forschungsgelder, Arbeitsplätze und Anerkennung wird die Anzahl und Reichweite von Publikationen als ein wichtiger Indikator für die Leistung und den Erfolg von Wissenschaftlern angesehen. Die Zunahme von Publikationen kann aber auch zu einer Zunahme von unzureichend überprüften oder nicht reproduzierbaren Ergebnissen führen.
Die Integrität der wissenschaftlichen Literatur wird durch das Zurückziehen (engl. Retraction) fehlerhaft veröffentlichter Publikationen gewahrt. Die Kennzeichnung zurückgezogener Artikel in online verfügbaren Quellen ist daher von großer Bedeutung. In dieser Ausarbeitung wird die im Suchportal LIVIVO verfügbare Literatur auf zurückgezogene Artikel untersucht. Retraction Watch, ein amerikanischer Blog, bietet eine Datenbank zurückgezogener Artikel mit fast 40.000 Einträgen. Um die beiden Datensätze miteinander vergleichen zu können, wird eine lokale Datenbankanwendung entwickelt, die einen Abgleich und eine anschließende Analyse ermöglicht. Für die Anreicherung der Metadaten für LIVIVO wird empfohlen, den Digital Object Identifier (DOI), das Datum und die PubMedID, unter der der zurückgezogene Artikel veröffentlicht wurde, mit aufzunehmen.
Der Abgleich gibt einen ersten Eindruck über das Vorhandensein zurückgezogener Artikel im Suchportal. Es wurden 14.206 Einträge identifiziert, wobei in den letzten Jahren ein stetiger Anstieg in der Anzahl zu verzeichnen ist.
Die vorliegende Arbeit beschäftigt sich mit der durch Social Media ausgelösten „Fear of missing out“ (FoMO) und verfolgt das Ziel, auf Basis einer Literaturrecherche die Auswirkungen von FoMO auf das psychische Wohlbefinden in der frühen und mittleren Adoleszenz zu untersuchen. Hierfür werden zunächst das Phänomen FoMO erklärt und dessen Relevanz in der betrachteten Altersphase ermittelt. Darauf aufbauend zeigt diese Arbeit die Zusammenhänge von FoMO und Social Media auf und erläutert die Einflüsse von FoMO auf das psychische Wohlbefinden. FoMO ist gekennzeichnet durch die Angst, andere könnten lohnendere Erfahrungen machen als man selbst. Zentrale Erkenntnisse dieser Arbeit sind, dass FoMO und Social Media in einem engen Zusammenhang stehen und FoMO das psychische Wohlbefinden durch Gefühle von Stress, Niedergeschlagenheit und Unzulänglichkeit stark beeinträchtigten kann.
Dieses Dokument umfasst den schriftlichen Teil meiner medienpraktischen Bachelorarbeit, deren Ziel die Konzeption und praktische Umsetzung eines Gaming-Podcasts ist. Dieser beinhaltet die Formatidee eines kritischen Gesprächs zwischen zwei Videospieler*innen mit unterschiedlichen Spielvorlieben und Expertisen. Ferner wird die Zielgruppe als Gamer*innen identifiziert und eine Analyse relevanter Wettbewerber*innen durchgeführt. Aufbauend auf den Ergebnissen all dessen wird Inhalt, Gestaltung, Technik, und Distribution des Podcasts sowie eine Strategie für einen begleitenden Instagram-Kanal konzipiert. Anschließend wird die Umsetzung beider Konzepte dokumentiert und schlussendlich reflektiert.
Insbesondere Forschende von Einrichtungen in Ländern des Globalen Südens haben bis vor zwanzig Jahren unter Zugangsbeschränkungen zu aktuellen Forschungsergebnissen, in Form hoher Subskriptionsgebühren wissenschaftlicher Fachzeitschriften, gelitten. Mit der Budapester Open Access Initiative von 2002 wurde die Hoffnung auf eine Verbesserung der Zugangsverhältnisse sowie der Wahrnehmung von wissenschaftlichen Publikationen aus Ländern des Globalen Südens geweckt. Das Ziel der vorliegenden Arbeit ist es, am Beispiel Kolumbiens als ein Land des Globalen Südens, zu untersuchen, ob positive Auswirkungen der Open Access-Maßnahmen auf den Publikationsoutput wissenschaftlicher Erkenntnisse, den Zugang zu Literatur und die Wahrnehmung des Publikationsoutputs empirisch belegbar sind. Dazu wird die folgende Forschungsfrage gestellt: Welche Auswirkungen haben die Open Access-Maßnahmen Kolumbiens auf die Zugangsmöglichkeiten kolumbianischer Autor:innen zu Artikeln impact-starker Zeitschriften und die Wahrnehmung kolumbianischer Publikationen von 2002 bis 2022 gehabt? Um die Forschungsfrage zu beantworten, wurde eine quantitative Literaturstudie in der Datenbank Scopus zum Publikationsoutput Kolumbien von 2002 bis 2022 durchgeführt. Speziell wurden Daten in Bezug auf die Entwicklung des Open Access-Publikationsaufkommens Kolumbiens inklusive und exklusive internationaler Mehrautor:innenschaften erhoben. Zusätzlich wurden die Daten der Referenzen und die Zitationsrate der meistzitierten kolumbianischen Open Access-Veröffentlichungen ermittelt sowie der Anteil der kolumbianischen Publikationen in den Referenzen des meistzitierten, internationalen Publikationsaufkommens von 2002 bis 2022 gemessen und im Hinblick auf das zeitliche Auftreten von Open Access-Maßnahmen interpretiert.
Die ergriffenen Open Access-Maßnahmen Kolumbiens innerhalb der vergangenen zwei Jahrzehnte korrelieren mit einer kontinuierlichen Wachstumsrate des Open Access-Publikationsaufkommens sowie einem erhöhtem Zugang zu Artikeln impact-starker Zeitschriften und einer gestiegenen Wahrnehmung des kolumbianischen wissenschaftlichen Publikationsoutputs. Aufgrund der zum Erstellungszeitpunkt der vorliegenden Arbeit kürzlich beschlossenen nationalen Open Science Policy werden weiterführende Studien zur Auswirkung auf den Publikationsoutput Kolumbiens empfohlen.
Immer mehr Menschen wenden sich von den Nachrichten ab. Dieses Phänomen, das als News Avoidance bezeichnet wird, hat in den letzten Jahren deutlich zugenommen und beschäftigt sowohl die Wissenschaft als auch Journalist*innen aus der Praxis. Letztere haben auf der Suche nach Lösungen den Ansatz des Konstruktiven Journalismus entwickelt, der sich mithilfe konstruktiver Ansätze dem Negativ-Bias der Nachrichten entgegenstellen will. Diese Arbeit beschäftigt sich mit der Frage, wie sich der Blick aus der Praxis der konstruktiven Journalist*innen auf das Thema News Avoidance von dem der Wissenschaftler*innen unterscheidet. Zur Beantwortung dieser Frage wurde eine Literaturrecherche durchgeführt, die sowohl aktuelle wissenschaftliche Publikationen als auch Beiträge zum praktischen Diskurs wie Newsletter, Podcasts oder Blog-Beiträge umfasst.
Der 1926 geborene Jurist und Rechtsphilosoph Hermann Klenner gilt als einer der angesehensten Rechtswissenschaftler der DDR. Die auf Vollständigkeit ausgelegten Hermann-Klenner-Schriften (HKS) umfassen die von ihrem Autoren gesammelten Publikationen von 1952 bis in die heutige Zeit. Ende 2021 übergab Klenner die HKS an die wissenschaftliche Spezialbibliothek der Rosa-Luxemburg-Stiftung (RLSB) in Berlin. Die vorliegende Arbeit rekonstruiert die Integration der HKS als moderne Sondersammlung in den Bestand der RLSB unter dem Aspekt der inhaltlichen Erschließung. Nach Herausarbeitung des Stellenwerts inhaltlicher Erschließung in der einschlägigen Literatur zu Sondersammlungen werden zunächst mit der Thomas-Mann-Sammlung der ULB Düsseldorf und der Wilhelm-Fraenger-Bibliothek in Potsdam zwei Fallbeispiele moderner Sondersammlungen im Hinblick auf Besonderheiten bei der Indexierung analysiert. Im Anschluss wird aus den Faktoren Zielgruppe, Rahmenbedingungen und Charakter der HKS das angepaßte Erschließungskonzept der RLSB abgeleitet und expliziert sowie einer kritischen Bewertung unterzogen. Im letzten Kapitel werden die Ergebnisse zusammengefasst und Optimierungspotenziale identifiziert.
Das Ziel der vorliegenden Arbeit ist es, die Berichterstattung des öffentlichrechtlichen Nachrichtenformats Tagesschau auf dem sozialen Netzwerk TikTok zu untersuchen und zu bewerten, ob das Nachrichtenformat Inhalte nach journalistischen Kriterien und spezifischen Aspekten des Internets und der Plattform TikTok vermittelt. Zur Beantwortung der Forschungsfrage wurde eine qualitative Analyse mit deduktiver Kategorienanwendung durchgeführt. Die Analyse zeigte, dass die Tagesschau sowohl journalistische, internetspezifische als auch TikTok-spezifische Kriterien abdecken konnte und somit als Best-Practice-Beispiel für etablierte Medienformate auf sozialen Plattformen bewertet werden kann. Der Kanal der Tagesschau konnte die Nachrichten an die Formate der Plattform anpassen und gleichzeitig klassische Aspekte journalistischer Integrität wahren.
Corporate Podcasts als Content-Marketing-Instrument in der deutschen Unternehmenskommunikation
(2023)
Trotz steigender Relevanz nutzen nur wenige der deutschen Unternehmen Corporate Podcasts innerhalb ihrer Unternehmenskommunikation. Ziel dieser Bachelorarbeit ist, herauszustellen, inwiefern Corporate Podcasts für deutsche Unternehmen im privatwirtschaftlichen Sektor ein geeignetes Content-Marketing-Instrument in der Unternehmenskommunikation sind und wie diese genutzt werden können. Zur Beantwortung der Forschungsfrage erfolgt eine theoretische Auseinandersetzung, welche sich auf den aktuellen Forschungsstand bezieht. Diese theoretische Bachelorarbeit zeigt, dass deutsche Unternehmen im privatwirtschaftlichen Sektor einen Wettbewerbsvorteil durch die Nutzung von Corporate Podcasts erzeugen und die Umsetzung ohne technische Vorkenntnisse bezüglich Podcasts möglich ist. Weiterführende Forschung im Bereich Corporate Podcasts wäre aufgrund nicht existenter Studien zur Thematik insbesondere in Form quantitativer Studien wertvoll.
Schulungen zu Predatory Publishing: Identifikation von Best Practices an deutschen Universitäten
(2023)
Predatory Publishing ist eine aus dem Open Access entstandene Geschäftspraktik. Verlage machen sich die Unwissenheit von Forscher*innen zunutze, um sich selbst zu bereichern. In der folgenden Ausarbeitung wird untersucht, wie verbreitet Bibliotheken zu Predatory Publishing aufklären und welche Inhalte und Methoden sich als Best Practice für Informationsangebote anbieten. Inhaltlich überschneiden sich die Angebote in vielen Punkten und je nachdem wie umfangreich die Angebote geplant sind, werden Informationen mit Beispielen vertieft. Der gängige didaktische Aufbau für Workshops besteht aus einem theoretischen Teil und einer Übung, um das Gelernte anzuwenden.
Diese Arbeit legt den Schwerpunkt auf das disziplinspezifische Forschungsdatenmanagement (FDM) am Beispiel der internationalen MOSAiC-Expedition (Multidsciplinary drifting Observatory for the Study of Arctic Climate) aus dem Bereich der Geowissenschaften beziehungsweise der Erd- und Umweltwissenschaften.
Ziel der vorliegenden Arbeit ist es zu beantworten, inwieweit sich das disziplinspezifische, geowissenschaftliche FDM der MOSAiC-Expedition und das generische Verständnis von FDM aus Sicht der Informationswissenschaft unterscheiden und welchen Mehrwert dieses Wissen Bibliotheken für die Unterstützung geowissenschaftlicher Forschende im Umgang mit ihren Forschungsdaten bietet. Methodisch, nach dem Prinzip vom Speziellen zum Allgemeinen, wurden dafür eine Inhaltsanalyse, ein Experteninterview mit Datenmanagerinnen des Alfred-Wegener-Instituts und ein Abgleich durchgeführt.
Es zeigt sich, dass im kommunikativen Austausch gleichzeitig die Herausforderung und Chance von disziplinspezifischem FDM und FDM Unterstützungsservices besteht. Es gilt die drei Perspektiven auf das FDM (a) Institution, (b) Forschende und (c) informationswissenschaftliche Entwicklungsmodelle zu berücksichtigen. FDM ist auch im Bereich einzelner Disziplinen grundlegend generisch und sollte unter Beachtung von Disziplinspezifika ausgebaut beziehungsweise die Infrastruktur nach diesen ausgerichtet werden, um die Datenqualität und eine FAIRe Datennachnutzung zu sichern. Die Arbeit dient informationswissenschaftlichen Einrichtungen wie wissenschaftlichen Bibliotheken mit Forschenden aus dem Bereich der Geowissenschaften als Hintergrundinformation, um deren Datenkultur zu verstehen und den Datenumgang ziel- und nutzendenorientiert mit und im FDM unterstützen zu können. Darüber hinaus ist die vorliegende Arbeit für alle interessant, die die Besonderheit von disziplinspezifischem FDM im Vergleich zu generischem FDM anhand eines gesellschaftlich relevanten Praxisbeispiels verstehen und eventuell in der eigenen Institution unabhängig vom Fachbereich und den Disziplinen der Nutzenden verfeinern möchten.
Anhand der vorliegenden Bachelorarbeit wird die Frage beantwortet, welche Herausforderungen und Learnings die barrierefreie Gestaltung eines Social Learning Environment mit sich bringt. Hierfür wurden bei der Social Learning Plattform THSpaces die Bereiche Konzeption, Entwicklung und Betrieb untersucht. Grundlage dafür ist eine Abgrenzung der relevanten Begriffe und eine theoretische Ausarbeitung der rechtlichen Rahmenbedingungen bezüglich digitaler Barrierefreiheit. Um die Forschungsfrage zu beantworten, wurde zusätzlich ein bereits vorhandener Prüfbericht zur Barrierefreiheit von Spaces ausgewertet. Außerdem wurden qualitative Interviews mit Beteiligten am Projekt Spaces, sowie mit Nutzerinnen und Nutzern geführt, um Herausforderungen und Learnings zu evaluieren. Spezifisch wurde dabei sowohl das grundsätzliche Wissen der Gesprächspartnerinnen und Gesprächspartner über digitale Barrierefreiheit abgefragt, aber auch Hintergründe zum Entstehungsprozess der Plattform und der Arbeit daran in Erfahrung gebracht, beziehungsweise das Verhalten der Nutzerinnen und Nutzer in Spaces genauer beleuchtet. Nach Auswertung der Antworten konnte festgestellt werden, dass besonders mangelnde Ressourcen, sowie der hohe Aufwand eines semantisch korrekten HTML Codes der Barrierefreiheit im Weg stehen.
Die Schöpfung und Vergabe von Bibliotheksauszeichnungen fördert den Wettbewerb zwischen Bibliotheken und bietet ihnen einen Anreiz für Weiterentwicklungen ihrer Produkte und Dienstleistungen. Die nationale Auszeichnung „Bibliothek des Jahres“ wird jedes Jahr an eine Bibliothek vergeben, die innovative und vorbildliche Arbeit, vor allem im digitalen Bereich, leistet. Bisher wurden zweiundzwanzig Bibliotheken mit innovativen Konzepten in Bereichen wie Bibliothek als Dritter Ort, Forum der Stadtgesellschaft, Open Science und anderen digitalen Angeboten, prämiert. Ziel dieser Arbeit war es herauszufinden, ob der Erfolg der ausgezeichneten Bibliotheken mit ihrer Orientierung an wichtigen Trends im Bibliotheksbereich, die in entsprechenden „Trend Reports“ beschrieben werden, zusammenhängt. Hierbei stellte sich heraus, dass die Gründe, die für den Sieg in diesem Wettbewerb angegeben werden, überwiegend mit den fünf Haupttrends Digitalisierung, Bibliothek als Ort, Wandel von Bestands- zu Serviceorientierung, Kooperationen und nachhaltige Bibliothek übereinstimmen. Diesen identifizierten Haupttrends sind thematisch passenden Untertrends zugeordnet. Auch ein kleiner Einblick in verschiedene regionale und internationale Bibliotheksauszeichnungen wird gewährt.
Die gesellschaftliche Debatte um das Thema Rechtsextremismus berührt auch Bibliotheken. 2012 wurde die Bibliothek des Konservatismus (BdK) gegründet, die ihren Sammlungsschwerpunkt auf den Konservatismus legt und sich selbst als wissenschaftliche Spezialbibliothek bezeichnet. Sie kooperiert mit Institutionen sowie Personen der Neuen Rechte und ist seit 2012 Mitglied im Deutschen Bibliotheksverband (dbv). Letzterer setzt sich aktiv für die Demokratieförderung durch Bibliotheken ein. Die vorliegende Bachelorarbeit verfolgt das Ziel, die Mitgliedschaft der BdK im dbv anhand von bibliotheks- und institutionenethischen zu analysieren.
Dazu wird folgende Forschungsfrage gestellt: „Inwiefern ist die Mitgliedschaft der Bibliothek des Konservatismus im dbv unter bibliotheks- und institutionenethischen Gesichtspunkten vertretbar,
wenn die Bibliothek des Konservatismus spätestens seit 2017 als ein Treffpunkt der Neuen Rechten gilt?“ Um die Forschungsfrage zu beantworten, wurde die bibliothekarische Arbeit der BdK mit bibliotheks- und institutionenethischen Werten sowie mit Stellungnahmen des dbv zum Thema Demokratie verglichen. Zusätzlich wurde ein Interview mit dem Ethikbeauftragten des dbv geführt. Die Ergebnisse der Analyse der BdK in Bezug auf bibliotheks- und institutionenethische Grundwerte zeigen, dass sich die BdK bei ihrer bibliothekarischen Arbeit oft in einer demokratischen Grauzone aufhält und unter dem Deckmantel des Konservatismus eine Diskursverschiebung nach rechts anstrebt.
Die Öffentliche Bibliothek steht seit dem Beginn der 1980er unter dem Eindruck radikaler gesellschaftlicher und technologischer Transformationsprozesse.
Diese Entwicklung spiegelt sich in ihren Versuchen eine adäquate konzeptionelle Antwort auf die Fragen der Gegenwart zu finden, um sich als wichtiger gesellschaftlicher Akteur zu legitimieren. Auf Grundlage einer historischen Diskursanalyse und am Beispiel der Düsseldorfer Zentralbibliothek kann dieser Prozess anschaulich nachvollzogen werden.
In den letzten Jahren hat die Thematik der Barrierefreiheit von Bibliotheken zunehmend an Bedeutung gewonnen. Durch die Ratifizierung der UN-Konvention über die Rechte von Menschen mit Behinderungen im Jahre 2009 sind Öffentliche Bibliotheken in Deutschland als öffentliche Einrichtungen zu der Umsetzung von Barrierefreiheit verpflichtet. Durch Barrierefreiheit stellen Bibliotheken den uneingeschränkten und gleichberechtigten Zugang zu Informationen, Bildung sowie sozialer und kultureller Teilhabe für jeden Menschen sicher. In der vorliegenden Arbeit wird dargestellt, wie Öffentliche Bibliotheken ihren Ist-Zustand hinsichtlich der Barrierefreiheit überprüfen können und wie eine umfassende barrierefreie Ausrichtung erzielt werden kann. Die Ausarbeitung eines Bewertungsbogens für die Analyse der Barrierefreiheit in Öffentlichen Bibliotheken zeigt, dass die Umsetzung von Barrierefreiheit eine umfassende Aufgabe darstellt und ganzheitlich betrachtet werden muss. Es wird festgestellt, dass die Barrierefreiheit nicht auf die Zugänglichkeit für Menschen im Rollstuhl reduziert werden darf, da neben der Zugänglichkeit auch die Orientierung, die Sensibilisierung von Mitarbeitenden, das Bereitstellen von speziellen Medienformaten, Hilfsmitteln, Services und Veranstaltungsformaten sowie ein barrierefreier Internetauftritt berücksichtigt werden muss. Darüber hinaus wird der Bewertungsbogen an dem Fallbeispiel der Stadtbibliothek Neuss angewandt sowie Handlungsempfehlungen gegeben. Es zeigt sich, dass Barrierefreiheit einen Mehrwert für Öffentliche Bibliotheken und für alle Kund*innen darstellt.
Die vorliegende Bachelorarbeit befasst sich mit der Frage, ob deutschsprachige Fachzeitschriften aus der Bibliothekswissenschaft, Checklisten, die von Bibliotheken erstellt wurden, um Predatory Journals zu identifizieren, standhalten können. Überprüft werden Merkmale, welche das äußere Erscheinungsbild der Zeitschrift ausmachen. Die Checkliste mit 19 Kriterien wurde aus verschiedenen, bereits vorhandenen Checklisten erstellt. Insgesamt werden 14 bibliothekarische Fachzeitschriften untersuch. Die Ergebnisse werden im Anschluss analysiert und diskutiert. Dabei steht die Bedeutung der Ergebnisse für die Bibliothekswelt und die Zeitschriften im Mittelpunkt, aber auch die Bedeutung der Ergebnisse für die zukünftige Nutzung von Checklisten wird kurz beleuchtet.
Relevanz und Umsetzung von gendergerechter Sprache in deutschsprachigen journalistischen Angeboten
(2023)
Die Diskussion um gendergerechte Sprache geht nicht am Journalismus vorbei, sondern betrifft ihn vielmehr in besonderem Maße. Diese Bachelorarbeit stellt dar, dass es gerade im Journalismus wichtig ist, Alternativformen zum generischen Maskulinum zu finden, um den gedanklichen Miteinbezug von Frauen und nicht binären Personen in der Öffentlichkeit zu fördern. Es wird zudem herausgearbeitet, dass sich hierbei besonders eine Kombination aus Neutralformen sowie Genderzeichen eignet, da diese am besten mit den Anforderungen an journalistische Sprache vereinbar ist.
Der Diskurs um die Themen Rassismus und Geschlechterstereotypen in Kinderbüchern hat in den vergangenen Jahren vermehrt zugenommen. An dem Diskurs nimmt nicht nur die bibliothekarische Fachwelt, sondern auch die gesamte gemeine Bevölkerung teil. In dieser Bachelorarbeit soll untersucht werden, inwiefern Kinderbücher in den 15 größten Bibliotheken in NRW in Hinblick auf rassistische und geschlechterstereotype Inhalte behandelt werden. Dabei wird sich konkret auf ausgewählte Klassiker der Kinderliteratur beschränkt. Neben der ethischen Betrachtung des Themas soll in einem praktischen Teil anhand mehrerer Methoden analysiert werden, ob die Bibliotheken bestimmte Sensibilisierungsmaßnahmen bezüglich der betroffenen Bücher ergriffen haben. Dazu werden eine Webseitenanalyse, Katalogrecherchen, Beobachtungen und eine kurze Umfrage durchgeführt. Ziel ist es, festzuhalten, wie weit sich die untersuchten Bibliotheken in Nordrhein-Westfalen mit diesem Diskurs beschäftigt haben und welche Lösungsansätze darüber hinaus in Bibliotheken deutschlandweit bereits angewendet werden. Die Analyse zeigt, dass viele Öffentliche Bibliotheken sich allgemein mit Rassismus und Rollenklischees auseinandergesetzt haben und besonders das Thema Diversität aufgreifen. Die konkrete Beschäftigung mit Rassismus und Geschlechterstereotypen in Kinderbuchklassikern lässt sich somit für die nahe Zukunft in NRW prognostizieren.
Live Escape Rooms kommerzieller Anbieter für Erwachsene sind mittlerweile in vielen Städten etabliert und erfreuen sich großer Beliebtheit. Auch manche öffentlichen Bibliotheken greifen diesen Trend bereits auf und entwickeln eigene Escape Rooms für ihre Nutzer*innen. Bei der Konzeption gilt es, räumliche, finanzielle sowie personelle Ressourcen mit den Merkmalen von Escape Rooms und der individuellen Zielsetzung zu vereinen. Die vorliegende Bachelorarbeit beschäftigt sich mit der Konzipierung eines Live Escape Rooms für Kinder ab zehn Jahren sowie dessen Umsetzung in der Kinder- und Jugendbibliothek Karlsruhe. Dazu werden zunächst das Spielprinzip von Escape Rooms sowie bereits existierende Umsetzungsmöglichkeiten in Bibliotheken vorgestellt. Basierend auf einer Zielgruppenanalyse, theoretischen Grundlagen zu Spielerischem Lernen und einer Zieldefinition wurde ein Konzept entwickelt, welches anschließend in der Praxis durchgeführt wurde. Die Evaluation der Veranstaltung zeigt auf, dass ein Live Escape Room für Kinder, welcher eine Zielsetzung abgeleitet von bibliothekarischen Angeboten verfolgt, mit geringem Mitteleinsatz und angepasst an die räumlichen Gegebenheiten erfolgreich umgesetzt werden kann. Zur Nachnutzung des Konzepts werden die Spielmaterialien im Anschluss mittels einer Creative Commons-Lizenz für andere Einrichtungen zur Verfügung gestellt.
In Belarus kam es nach der gefälschten Präsidentschaftswahl 2020 zu Massenprotesten, die mit Polizeigewalt begegnet wurden. Inländische und ausländische Medien wurden bei dem Versuch, von der Lage zu berichten, massiv behindert. Die Arbeit geht der Frage nach, wie die deutsche und internationale Presse über die Pressefreiheit in Belarus seit der Präsidentschaftswahl berichtet hat. Basierend auf einer qualitativen Frame-Analyse mit anschließender Cluster-Analyse wurden die gefundenen Frames aus den vier Medien „Süddeutsche Zeitung“, „Frankfurter Allgemeine Zeitung“, „The Guardian“ sowie „The New York Times“ systematisch analysiert. Die Berichterstattung der untersuchten Medien zeigte, wie ernst die Lage der Pressefreiheit in Belarus ist. Viele Frames befassten sich mit den Repressionen gegen die Medien und den Festnahmen einzelner Journalist*innen und Medienschaffenden.
The goal of this work is to detect "gender biases" in the communication of users of Subreddits on the platform Reddit. The analysis is carried out for eleven selected Subreddits. Furthermore, an attempt is made to identify different user types with the help of a k-means clustering and also to analyze "gender biases" in their communication. Based on the aggregated datasets, fasttext Word Embedding models are trained to identify terms that show high semantic relatedness in terms of cosine similarity of their word vectors with selected feminine and masculine terms.
To this end, the terms are analyzed for sentiment using the NRC-VAD Lexicon and tested for statistically significant differences. In addition, the Word Embedding Association Test (WEAT) is performed to check for subliminal associations. In relation to the considered text corpus, it is essentially observed that women are frequently associated with adjectives that associate them with appearances,
childbearing abilities or adaptability also in relation to the family. In contrast, men are associated with and measured by adjectives that refer to their prestige, strengths and weaknesses, career or physical characteristics.
With the growing scientific output that is produced, its getting more important to automate the extraction of knowledge from articles. This bachelor thesis will describe an approach doing exactly this. Scientific articles will be obtained from a database.
These articles will be preprocessed to gain a set of training data, to update a language model that already exists for Python library spaCy. The model will be trained to recognize different sorts of entities regarding to the virus rabies. After this process the model will be used for ten articles and the extracted knowledge will be used to extend the Open Research Knowledge Graph.
Das stetige Wachstum von Datenmengen verursacht einen immer größer werdenden Bedarf an Analysemöglichkeiten von Daten. Unternehmen und Institutionen setzen vermehrt auf datengestützte Entscheidungsfindung, weshalb es notwendig ist, in diesem Bereich individuelle Lösungen zu schaffen und einzusetzen. Das Ziel der vorliegenden Arbeit ist es, ein webbasiertes Dashboard umzusetzen, welches einen Überblick über die Einträge in der Suchmaschine für Lebenswissenschaft LIVIVO ermöglicht.
Um ein optimales webbasiertes Dashboard aufzubauen, wurden zunächst quelloffene Lösungen evaluiert und verglichen. Hierbei wurde die Aktualität, Anpassbarkeit und Visualisierungstiefe besonders berücksichtigt. Die Evaluation der Lösungen hat gezeigt, dass viele Projekte mit solider Grundlage eingestellt wurden, aber dennoch eine große Breite an verschiedensten Lösungen verfügbar ist. Das webbasierte Dashboard wurde mit Grafana umgesetzt und bietet einen Überblick über die Gesamtzahl der Einträge in LIVIVO sowie verschiedene Metadaten und Kategorien, wobei sich eine solide Datengrundlage abgezeichnet hat. Weitere Entwicklungsmöglichkeiten sind die Bereinigung fehlerhafter Daten sowie eine zeitliche Vergleichbarkeit der vorhandenen Daten.
Kinder lernen in ihrem Leben schnell, was gesellschaftlich als wichtig und wertvoll erachtet wird. Dabei kann es um das Aussehen gehen, aber auch um bestimmte Sprachen, Kulturen oder Verhaltensweisen. Sie lernen dies meist unbewusst und durch nebensächliche Erfahrungen im Alltag. Allerdings spielen auch Bücher für das Lernen gesellschaftlicher Normen eine große Rolle. Bücher können Vielfalt als etwas alltägliches darstellen und dazu beitragen, dass Klischees aufgebrochen werden. Kinder und Jugendliche können sich in den Büchern wiederfinden und ein gutes Selbstbewusstsein aufbauen. Auch öffentliche Bibliotheken haben als Bildungs-, Informations- und Kultureinrichtungen den Auftrag interkulturelle Bibliotheksarbeit zu leisten. Dazu zählt Medien zur Verfügung zu stellen, die es ermöglichen sich zum einen mit Diversität auseinanderzusetzen, aber auch Kindern und Jugendlichen durch ein vielfältiges Medienangebot zu zeigen, dass verschiedene Hautfarben, Sexualitäten, Behinderungen und Geschlechter in der Gesellschaft alltäglich sind. In der folgenden Arbeit werden die Relevanz von Diversität in Bilderbüchern thematisiert, Darstellungsformen erläutert und der öffentliche Bibliotheksbestand in Deutschland auf Diversität überprüft. Dafür wird anhand eines Fragebogens ermittelt, inwiefern Diversität für Bibliotheken relevant ist und der Bibliotheksbestand auf diverse Titel im Kinder- und Jugendbereich untersucht, bevor ein abschließendes Fazit dazu getroffen wird, ob Diversität in öffentlichen Bibliotheken angekommen ist.
Der Vermittlung politischer Bildung kommt vor dem Hintergrund einer wachsenden Demokratiefeindlichkeit eine bleibende Bedeutung zu. In unterschiedlichen Kontexten werden Menschen mit politischen Inhalten konfrontiert, zu denen sie sich verhalten müssen. Politische Bildung geschieht einerseits im Auftrag des Staates. Andererseits sind es eine Vielzahl von zivilgesellschaftlichen Akteuren, die sie ihr widmen. Ihr Ziel, urteilsfähige und handlungsbereite Bürgerinnen und Bürger hervorzubringen, ist auch und besonders an öffentlichen Bibliotheken zentrales Anliegen. Die Arbeit gibt einen Überblick über Theorie- und Bezugsfelder der politischen Bildung. Sie identifiziert und problematisiert unterschiedliche didaktische Ansätze und deren Bezüge zu bibliotheksethischen und -pädagogischen Positionen. Diese werden in Zusammenhang mit dem „Four Spaces“-Modell für öffentliche Bibliotheken gebracht, das als Mittel dafür dienen kann, politische Bildung an Bibliotheken zu verwirklichen. Zentral sind die ideellen Aspekte, denen sich das „Four Spaces“-Modell mit seinen vier Räumen verschreibt, die in ihrer Bedeutung entfaltet werden. Einer konkreten, institutionengebundenen Konzeption politischer Bildung kann das als theoretischer Rahmen dienen.
As a key part of human-computer interaction(HCI) and usability testing, the capturing and recording of key user interaction plays a center role for ensuring a reliable post-hoc analysis of collected user interaction data, thus improving the odds of insightful HCI and usability testing cycles for use cases such as the evaluation of interactive information retrieval Systems(IRR). As such, the practice of logging is of significant importance for multiple fields of study such as IIR, HCI and most recently also Living Lab approaches. Living lab approaches represent a user-centered research methodology with a focus on user involvement, experimental approaches and extensive collaboration for the sake of co-production of knowledge and as such, has a dire need for robust and easy to use logging solutions.
With past logging solutions being either expensive, hard to use or error-prone, recent conferences gave rise to new logging solutions using contemporary web technologies, which aim to improve the logging landscape within the research community. Over the course of this paper, two of these recent logging solutions, LogUI and Big Brother, are to be inspected for their key features and then evaluated, whether they are suitable logging solutions for living lab and IIR environments. Results and research indicate, that both logging solutions offer significant benefits for research using living lab and IIR approaches, with LogUI embracing many of the experimental paradigms that guide the living lab approach.
Die Retrievalforschung in der Bibliothekswissenschaft hat in den letzten Jahrzehnten beachtliche Fortschritte gemacht. Automatische Indexierungsmethoden werden immer häufiger angewendet, obwohl dieses Thema in der Bibliothekswelt kontrovers diskutiert wird. Die Ergebnisse maschineller Erschließungsarbeit werden anhand von Retrievaltests festgehalten. Der Gegenstand dieser Arbeit ist die Darstellung von Retrievalexperimenten mit bibliothekarischen Daten. Zu Beginn werden die Grundlagen solcher Retrievaltests sowie das Cranfield-Paradigma erläutert. Es folgt eine Vorstellung verschiedener wissenschaftlicher Projekte aus diesem Forschungsfeld in chronologischer Reihenfolge. Wenn Verbindungen oder Einflussnahmen zwischen den einzelnen Projekten bestehen, werden diese herausgestellt. Im besonderen Umfang wird das Retrievalprojekt GELIC der TH Köln beschrieben, an dem der Autor dieser Arbeit beteiligt war. Obwohl es isolierte Retrievalprojekte gibt, lässt sich aus methodischer Sicht eine Verbindung von den frühesten Experimenten zu den heutigen Retrievalexperimenten herstellen. Diese Entwicklung ist noch nicht abgeschlossen.
Die Arbeit untersucht die Rolle der Fachinformationsdienste im Forschungsdatenmanagement sowie die Bedeutung des Forschungsdatenmanagements für die Fachinformationsdienste. Ein besonderer Fokus liegt auf der Frage, inwieweit die Fachinformationsdienste mit der Nationalen Forschungsdateninfrastruktur (NFDI) zusammenarbeiten und ob die Aufgaben der Fachinformationsdienste sich seit der Einführung der NFDI verändert haben.
Die vorliegende medienpraktische Bachelorarbeit thematisiert die gestalterische und inhaltliche Konzeption und Umsetzung einer Website sowie eines ausgelagerten Online-Shops bei dem virtuellen Marktplatz Etsy. Die Website gio-casa.de bietet Besucher*innen Informationen über die Interieur-Marke selbst, die Unternehmensphilosophie und das Sortiment von GIO casa. Im integrierten Blog können die Nutzer*innen sich außerdem über aufkommende und vergangene Veranstaltungen und Neuigkeiten des Unternehmens informieren und interessante Einblicke in die hochwertigen Materialen und Arbeitsprozesse erhalten.
Ziel der Arbeit ist es, den bestehenden und potentiellen Kund*innen von GIO casa eine ansprechend gestaltete, funktionsfähige und nutzungsfreundliche Online-Präsenz zu bieten, die als umfassende Informationsquelle dient und die Reichweite des Unternehmens erhöht.
Die Konzeption der Website umfasst Analysen der Zielgruppe und der Wettbewerber, die inhaltliche und technische Struktur der Website und die optische Gestaltung. Dabei sollen unterschiedliche Nutzungstypen angesprochen werden. Die Umsetzung der Website ist über das Content-Management-System WordPress erfolgt, wo der Content durch individuelle Anpassungen wie geplant realisiert wurde. Darüber hinaus befasst sich die vorliegende Arbeit mit der konzeptionellen sowie technischen Verbindung des externen Etsy-Shops mit der Website. Für eine bessere Auffindbarkeit der Website wurden angemessene SEO-Maßnahmen begründet eingesetzt.
Bei der vorliegenden medienpraktischen Bachelorarbeit wird die Konzeption, Gestaltung und medienpraktische Umsetzung der Informations- und Storytelling-Website „mobilfunkhistory.com“ zum Thema Mobilfunk in Deutschland dokumentiert und reflektiert. Die Website behandelt die Geschichte und Hintergründe der einzelnen Mobilfunkstandards sowie den Mobilfunkausbau in Deutschland. Die Website informiert zum einen über diese Hintergründe und Spezifikationen, erklärt die Unterschiede zwischen den Generationen, zeigt auf, warum ein Standard vermeintlich überlegen ist und gibt zum anderen einen Ausblick in die Zukunft, wann 5G wieder obsolet sein könnte und was nach 5G kommt.
Die Messung des regionalen Wohlstands ist aufgrund der zunehmenden Bedrohungen für die Ernährungssicherheit ein wichtiges Instrument bei der Sicherung des Lebensunterhaltes. So dienen diese unter anderem für die Ausrichtung und Organisation staatlicher und nicht staatlicher Leistungen und Regierungsentscheidungen. Diesen Messungen liegen meist Verbrauchs- und Vermögensbefragungen, wie die des DHS-Programms zugrunde, welche kosten- und zeitaufwendig sind.
Als Lösungsansatz werden im Rahmen dieser Arbeit Machine Learning Modelle entwickelt, die anhand von Satellitendaten und Haushaltsumfragen des DHS-Programms einen Asset Wealth Index für afrikanische Regionen im und rund um das Horn von Afrika vorhersagen. Dazu wird anhand der Umfragedaten mittels einer Hauptkomponentenanalyse der entsprechende Asset Wealth pro Haushalt anhand der Vermögensgegenstände ermittelt. Überdies werden die Geo-Daten in Form von Sentinel-2 und VIIRS-Bildern der Position der Haushalte für die entsprechenden Jahre beschafft. Nach einer statistischen Auswertung der Labeldaten erfolgt die Implementation verschiedener Modelle, nach städtischen und ländlichen Regionen getrennt, mit verschiedenen Eingabeformaten. Nachdem bewiesen wird, dass ein Verknüpfung der Labeldaten vor 2015 mit Sentinel-2-Bildern ab Mitte 2015 sinnvoll ist, wird pro Art der Region jeweils ein Modell ausschließlich auf den Bildern eines der Satelliten sowie auf Bildern aus einer Kombination beider Satelliten trainiert. Dabei zeigen die Modelle in ihren Prognosen eine geringere Varianz als die tatsächlichen Daten, sodass die Differenzierung des Asset Wealth zwischen den Regionen zwar in Ansätzen korrekt, aber deutlich schwächer ausgeprägt ist, als in der Realität. Zudem zeigt sich, dass die Vorhersage ländlicher Regionen vielversprechendere Ergebnisse liefert, als die städtischer Regionen. Die abschließende Prognose des Asset Wealth für Mosambik zeigt nahezu identische Werte zu den im Training und in der Evaluation verwendeten Mosambik-Daten anderer Jahre.
Das Ziel der vorliegenden Arbeit ist es zu analysieren, welche Einflusskräfte in der Branche Indoor-Farming wirken und wie hoch ihre Ausprägung ist. Dazu wird die folgende Forschungsfrage gestellt: Welche kritischen Erfolgsfaktoren lassen sich anhand von Porters Five-Forces-Modell für Indoor-Farming-Betriebe identifizieren und welche Chancen, Trends sowie Risiken können daraus abgeleitet werden? Um die Forschungsfrage zu beantworten, wurde mittels der induktiven Forschung eine Literaturrecherche in Branchen relevanten Quellen durchgeführt und diese mit Hilfe von Porters Five-Forces-Modell analysiert. Die Ergebnisse zeigen, dass der Einfluss der Lieferanten stark ausgeprägt ist und der Wettbewerb innerhalb der Branche zunimmt. Zusätzlich befindet sich die Indoor-Farming Branche erst im Aufbau und der Markt wird von wenigen Unternehmen beherrscht. Neben großen Produktionsstätten haben sich kleinere In-Store-Farmen und Container-Farmen etabliert, die es den Unternehmen ermöglichen Transportkosten zu reduzieren. Auf dieser Grundlage ist es empfehlenswert, entsprechende Anbaukonzepte zu optimieren, um einen Wettbewerbsvorteil zu erlangen und kostengünstig dem Endverbraucher frische Produkte bereitzustellen.
Ziel der vorliegenden Arbeit ist die Generierung einer möglichst vollständigen Sammlung von Metadaten, referenzierend auf Dissertationsschriften, die dem erweiterten Themenspektrum der Informationswissenschaft entsprechen. Hierzu stellen sich die folgenden Fragen: Welche Disziplinen können als relevant für das erweiterte Themenspektrum der Informationswissenschaft betrachtet werden? Existiert eine Vollständige Übersicht über die Landschaft der deutschen Hochschulschriftenserver? Wie muss das System aufgebaut werden um die Metadaten, die auf Dissertationsschriften referenzieren, zu beziehen, zu selektieren und zu homogenisieren? Um diese Fragen zu beantworten wird erarbeitet, aus welchen Disziplinen sich das erweiterte informationswissenschaftliche Themengebiet zusammensetzt. Ebenso wird eine Vollständige Liste aller deutschen Hochschulen und der identifizierten Hochschulschriftenserver angefertigt. Diese erarbeiteten Hochschulschriftenserver werden mittels eines Softwareentwurfs über das Open Archives Initiative Protocol for Metadata Harvesting abgefragt. Die erhaltenen Metadaten werden homogenisiert abgelegt. Weiter findet eine Schlagwortsuche nach programmatisch erstellten Schlagworten innerhalb der Disziplinen statt, die der Informationswissenschaft als nahestehend ermittelt wurden. Aus der Aufgabenstellung resultierend ergab sich, dass die Methoden und Erkenntnisse der Informatik und der Bibliothekswissenschaft als relevant für das erweiterte Themenspektrum der Informationswissenschaft betrachtet werden können. Durch den Harvesting Prozess konnten zwei Sammlungen von Metadatensätzen erstellt werden. Eine Sammlung umfasst 378 Metadatensätze, die ausschließlich Dissertationen aus den Bibliotheks- und Informationswissenschaften beinhalten und eine weitere Sammlung besteht aus 3.698 Metadatensätzen, die dem erweiterten Themenspektrum der Informationswissenschaft entsprechen.
Informationssuchende werden durch die zunehmende Informationsfülle und Menge an Webseiten im Internet immer abhängiger von Suchmaschinen. Während der Bias der Ausgaben dieser Suchmaschinen schon länger im Fokus der Forschung steht, gilt dies nicht für die Suchvorschläge. Diese werden den Suchenden zur Erweiterung oder Spezifizierung ihrer Suchen vorgeschlagen. An der Information Retrieval Research Group der TH Köln wird der Einfluss von Suchvorschlägen auf die politische Meinungsbildung untersucht. Für die Untersuchung dieser Suchvorschläge werden diese in dieser Bachelorbeit thematisch mit Daten aus dem sozialen Netzwerk Twitter in den Vormonaten der Bundestagswahl 2017 verglichen. Hierbei werden verschiedene Einflussfaktoren auf die Übereinstimmung der Themen und den Zeitversatz innerhalb der Zeitreihen der Suchvorschläge und der Themen aus Twitter untersucht. Es wird festgestellt, dass Suchvorschläge zu Personen der Parteien AFD und DIE LINKE deutlich abhängiger von den Diskussionen und dominierenden Themen auf Twitter sind. Themen auf Twitter tauchen zu Personen der AFD schneller und zu Personen der AFD und DIE LINKE stärker in den Suchvorschlägen auf als zu Personen anderer Parteien. Hierbei können jedoch nur sehr schwache systematische Unterschiede abhängig von der Kategorie der Themen festgestellt werden.
Wissenschaftliche Pressekonferenzen sind eine wertvolle Informationsquelle. Sie bestehen aus abwechselnden Reden von Expert:innen und Antworten auf Fragen aus dem Publikum und können daher zu einer faktenbasierten Berichterstattung beitragen. Obgleich Pressekonferenzen eine hohe Informationsdichte besitzen, ist das Extrahieren von relevanten Statements schwierig und zeitintensiv. Um diese Arbeit zu unterstützen, wird ein System vorgeschlagen, das automatisiert Statements aus Pressekonferenzen extrahiert. Claims, also Behauptungen über Sachverhalte, werden als zentrales Element eines Statements identifiziert und dienen als wichtigstes Feature, um Statements in Transkripten von Pressekonferenzen zu identifizieren. Hierzu wird ein zweistufiger Prozess vorgeschlagen.
Zunächst werden mithilfe einer Single Label Multi-Class Sequenzklassifikation Sätze identifiziert, welche ein Claim enthalten. Anschließend werden die Sätze weiterverarbeitet, um irrelevante Sätze und solche mit anaphorischen Verbindungen herauszufiltern oder die Länge der Statements zu beeinflussen. Die Ergebnisse lassen vermuten, dass das Identifizieren von Claims erfolgreich eingesetzt werden kann, um Statements in Pressekonferenzen zu finden. Obwohl viele Statements mit diesem automatisierten System extrahiert werden können, sind die extrahierten Sätze nicht immer schlüssig genug, um ohne weiteren Kontext verstanden zu werden und benötigen weitere Begutachtung durch fachkundige Personen.
Wissenschaft basiert auf Glaubwürdigkeit, die durch die Regeln guter wissenschaftlicher Praxis und Qualitätskontrollen gesichert wird. Predatory Publisher haben sich die Open Science Kultur zu Nutze gemacht, um daraus Profit zu schlagen, indem sie wissenschaftliche Standards vortäuschen. In der folgenden Ausarbeitung werden drei Predatory Publishing Verlage exemplarisch untersucht, um herauszufinden, wie groß der Anteil der Geistes- und Sozialwissenschaften am Predatory Publishing Markt ist. Die Auswertung der Analyse zeigt auf, dass der Anteil dieser Fachdisziplinen gering ist. Dies ist auf die vorherrschenden Publikationskulturen zurückzuführen, da besonders in den Geisteswissenschaften längere Publikationen wie Monographien eine wichtige Rolle spielen und Predatory Publisher größtenteils Zeitschriften publizieren. Darüber hinaus wird betrachtet, was dies für Bibliotheken und die Aufklärungsarbeit, die sie hinsichtlich des Phänomens des Predatory Publishing bereits leisten, bedeutet. Es hat sich gezeigt, dass eine Ergänzung der bestehenden Angebote um fachspezifische Beratung, aber auch um fächerübergreifende Maßnahmen, einen Mehrwert für die WissenschaftlerInnen darstellen würde.
Die vorliegende Arbeit beschäftigt sich mit dem Thema Serious Games in Gefangenenbibliotheken. In einer Überblicksdarstellung werden die rechtlichen, institutionellen, fachspezifischen und pädagogischen Grundlagen erarbeitet, die für eine potenzielle zukünftige Implementierung von Computer- und Videospielen, sprich digitale Spiele, zu Lernzwecken in Gefangenenbibliotheken zum Einsatz kommen könnten. Es wird argumentiert, dass digitale Spiele in der Kombination aus spielerischem Lernen von potenziell großem Nutzen sein können, um die Zielgruppe der Inhaftierten auf niedrigschwellige Weise längerfristig zum Lernen zu motivieren. Die Arbeit verfolgt dabei einen theoretischen Ansatz. Auf Grundlage herausgearbeiteter pädagogischer Kriterien für das Lernen mit digitalen Spielen in Anwendung auf die Zielgruppe, welche auf einer Analyse interdisziplinärer Fachliteratur basiert, wird versucht eine nachvollziehbare Konzeptidee für ein Serious-Games-Angebot in Gefangenenbibliotheken zu entwickeln. Es wird anhand des Themas ethische Bildung gezeigt, wie Serious Games innerhalb eines integrativen Lernkonzepts konstruktiv und erfolgsversprechend zum Einsatz kommen können, um für die Inhaftierten essenzielle Kompetenzen mit dem Ziel der Wiedereingliederung in die Gesellschaft zu fördern und zu trainieren. Das Ergebnis zeigt, dass ein solches Unterfangen aus institutionellen, finanziellen und personellen Gründen aktuell zu aufwendig und kaum realisierbar ist.