Refine
Year of publication
Document Type
- Bachelor Thesis (245)
- Master's Thesis (150)
- Part of a Book (50)
- Diploma Thesis (34)
- Article (15)
- Other (12)
- Report (10)
- Book (9)
- Study Thesis (6)
- Conference Proceeding (2)
Has Fulltext
- yes (535) (remove)
Keywords
- Öffentliche Bibliothek (21)
- Informationskompetenz (18)
- Bibliothek (13)
- Social Media (11)
- Open Access (8)
- Deutschland (7)
- Dienstleistung (7)
- Digitalisierung (7)
- Hochschulbibliothek (7)
- Information Retrieval (7)
Die vorliegende Masterarbeit hat zum Ziel, einen Weg aufzuzeigen, wie das Thema Gaming in einer öffentlichen Bibliothek sinnvoll etabliert werden kann. Dafür beschäftigt sie sich mit der Frage, welchen Nutzen eine Bewertung von Multiplayer-Konsolenspielen für Bibliotheken hat und wie sich diese für das genannte Ziel verwenden lässt. Es wurde ein Bewertungsraster erstellt und mit der Beobachtung der praktischen Anwendung gefüllt.
Die Beobachtung fand in einem Zeitraum von zwei Monaten während der Gamingzeit in der Stadtbibliothek Achim statt. Ein zentrales Ergebnis dieser Arbeit ist, dass sich grundsätzlich Spiele eignen, die eine einfache Steuerung haben und bei denen die Lernkurve steil ist. So können die hier thematisierten Kinder der Zielgruppe der 8–12-Jährigen einen niedrigschwelligen Einstieg bekommen. Durch die Nutzung des Bewertungsrasters kann sowohl ermittelt werden, welche Spiele sich grundsätzlich für eine Gamingzeit eignen, als auch, ob diese zur Ausrichtung einer bestimmten Bibliothek passen, falls es dahingehend Anforderungen gibt. Ein weiteres Ergebnis ist die Feststellung, dass eine Moderation einer Gamingzeit in vielerlei Hinsicht Mehrwert bringt. Unter anderem kann eine moderierende Person einen demokratischen Spielauswahlprozess steuern und neue Kinder gezielt ansprechen und ermutigen, teilzunehmen. Sie kann die Regeln und Steuerung von Spielen erklären, die die Kinder noch nicht kennen und dafür sorgen, dass der Umgangston freundlich bleibt.
As the information era progresses, the sheer volume of information calls for sophisticated retrieval systems. Evaluating them holds the key to ensuring the reliability and relevance of retrieved information. If evaluated with renowned methods, the measured quality is generally presumed to be dependable. That said, it is often forgotten that most evaluations are only snapshots in time and the reliability might be only valid for a short moment. Further, each evaluation method makes assumptions about the circumstances of a search and thereby has different characteristics. Achieving reliable evaluation is critical to retain the aspired quality of an IR system and maintain the confidence of the users. Therefore, we investigate how the evaluation environment (EE) evolves over time and how this might affect the effectiveness of retrieval systems. Further, attention is paid to the differences in the evaluation methods and how they work together in a continuous evaluation framework. A literature review was conducted to investigate changing components which are then modeled in an extended EE. Exemplarily, the effect of document and qrel updates on the effectiveness of IR systems is investigated through reproducibility experiments in the LongEval shared task. As a result, 11 changing components together with initial measures to quantify how they change are identifed, the temporal consistency of five IR systems could precisely be quantifed through reproducibility and replicability measures and the findings were integrated into a continuous evaluation framework. Ultimately, this work contributes to more holistic evaluations in IR.
In den Vereinigten Staaten werden Bücher aufgrund ihres Inhalts verboten. In vielen Fällen sind Medien mit LGBTQIA+ Themen oder Hauptcharakteren betroffen. Über diese „Book Bans“ Situation wird ein Überblick gegeben. Das Thema LGBTQIA+ ist ebenfalls in deutschen Bibliotheken von Relevanz. Es wurde untersucht, wie in ausgewählten Bibliotheken mit dem Thema LGBTQIA+ umgegangen wird. Dazu wurden Interviews durchgeführt. Da in den Vereinigten Staaten Öffentliche Bibliotheken und Schulbibliotheken von der „Book Bans“ Situation betroffen sind, wurden beide Bibliotheksarten untersucht. Es wird der Umgang mit Medien zum Thema LGBTQIA+ dargestellt und auf die Einstellung, sowie die Kenntnisse der interviewten Personen zum Thema LGBTQIA+ eingegangen. Des Weiteren wurden mögliche Veranstaltungen zum Thema LGBTQIA+ miteinbezogen und das Interesse der Nutzer*innen thematisiert. Die Interviews wurden durch eine Bestandsanalyse, bei den ausgewählten Bibliotheken, ergänzt. Die Bestände wurden daraufhin untersucht, ob Medien zu den einzelnen Identitäten der LGBTQIA+ Community vorhanden sind. Anschließend werden Beispiele für Veranstaltungen zum Thema LGBTQIA+ der Stadtbibliothek München genannt. Die Allianz Versicherung wird als ein Beispiel gegeben, wie in anderen Branchen das Thema LGBTQIA+ behandelt wird.
Werden Sprachmodelle auf neue Daten trainiert oder bereits vortrainierte Sprachmodelle durch Finetuning auf neue Daten fein abgestimmt, so lernt ein Sprachmodell jegliche Informationen aus den verwendeten Trainingsdaten. Meistens beinhalten die Trainingsdaten einen Bias. Dieser Bias wird ebenfalls durch die Sprachmodelle aufgenommen und im Antwortverhalten verbreitet. Besonders auf die politische Domäne kann sich diese Eigenschaft negativ auswirken. So können Sprachmodelle durch Finetuning auf politische voreingenommene Daten fein abgestimmt werden, welche anschließend verwendet werden können, um Applikationen zu entwickeln, welche die politische Meinung der Benutzer*Innen beeinflussen sollen.
Das Ziel dieser Arbeit ist, zu untersuchen wie sich verschiedene Sprachmodelle auf die Reproduktion der politischen Voreingenommenheit auswirken und welche Auswirkungen verschiedene Faktoren aus dem Trainingsdatensatz auf die Reproduktion der politischen Voreingenommenheit haben.
Dafür wurde ein Web Scraper angepasst, um den dadurch generierten Datensatz durch weitere Daten zu erweitern. Bei den Daten im Datensatz handelt es sich um Nachrichtendaten der amerikanischen Politikdomäne. Dieser Datensatz wurde durch die Volltexte der Nachrichten erweitert. Außerdem wurden zusätzlich die Zitate aus den Volltexten entfernt, um die Auswirkung der Zitate auf die Reproduktion der politischen Voreingenommenheit zu untersuchen. Anschließend wurden drei Sprachmodelle, welche auf unterschiedlichen Komponenten der Transformer-Architektur basieren, auf die Schlagzeilen, Volltexte und Volltexte ohne Zitate der linken und rechten Nachrichtendaten fein abgestimmt. Nach dem Finetuning haben die Sprachmodelle Texte für Eingaben generiert. Die generierten Texte wurden durch ein Evaluationsschema auf die politische Voreingenommenheit evaluiert. Dabei wurde die politische Voreingenommenheit am stärksten und genausten durch das Sprachmodell DistilGPT2 reproduziert, welches beim Finetuning die Volltexte verwendet hat. Das Sprachmodell DistilGPT2 basiert auf der Decoder-Komponente der Transformer-Architektur. Stehen viele Daten beim Finetuning zur Verfügung, führt das Verwenden der Volltexte ohne Zitate beim Finetuning zu einer weiteren Verstärkung der Reproduktion der politischen Voreingenommenheit.
Wachsende Kundenanforderungen an die Marktforschung führten in den letzten Jahren verstärkt zu einem automatisierten DIY-Ansatz in der deutschen Marktforschungsbranche. Branchenspezifische Medien werben damit, dass Kunden durch automatisierte Plattformen nun die Möglichkeit haben, Marktforschungsprozesse institutsunabhängig durchzuführen. Auf der anderen Seite werden persönliche Kundenbeziehungen im B2B-Segment jedoch zunehmend wichtiger, um Kunden langfristig binden zu können.
Das Ziel der Arbeit ist, Touchpoints der Customer Journey, welche durch den Einsatz von DIY-Marktforschung entstehen könnten, zu identifizieren und im Hinblick auf ihr Kundenbindungspotenzial zu untersuchen. Ausgehend von den Thesen, dass DIY-Marktforschung die Customer Journey des Kunden verändert und zu einer Reduktion des persönlichen Kontakts zwischen Kunde und Anbieter führt, wird im Rahmen dieser Arbeit untersucht, welchen Einfluss DIY-Marktforschung auf die Customer Journey hat und inwieweit die identifizierten Touchpoints der Customer Journey Kundenbindungspotenzial aufweisen.
Um dieses Vorhaben zu erfüllen, wurde die folgende Forschungsmethodik angewendet: Es wurden Experten im Rahmen semi-strukturierter Interviews zu ihren Erfahrungen mit DIY-Marktforschung im B2B-Segment befragt, wobei es insbesondere darum ging, Erkenntnisse über die Kontaktsituationen zwischen Kunde durch den Erwerb sowie die Nutzung von DIY-Marktforschung zu erlangen. Die Ergebnisse der Interviews wurden anhand einer Customer Journey Map visualisiert und anschließend auf der Basis theoretischer Erkenntnisse über die Kundenbindung im B2B auf ihr Kundenbindungspotenzial hin analysiert.
Die Ergebnisse zeigen, dass DIY-Markforschung für das Entstehen einer langen und intensiven Phase der Customer Journey verantwortlich ist, welche wiederum durch viele persönliche und unpersönliche Touchpoints zwischen Kunden und Anbieter charakterisiert ist. Darüber hinaus konnten Erkenntnisse über kritische Situationen zwischen Kunde und Anbieter erlangt werden, welche den identifizierten Potenzialen der Kundenbindung kritisch gegenüberstehen. Diese Forschungsarbeit fungiert somit als erster Forschungsansatz zu Kundenbindungspotenzialen von DIY-Marktforschung und beinhaltet praktische Implikationen, um Kunden über DIY-Marktforschung langfristig binden zu können.
Diese Arbeit legt den Schwerpunkt auf das disziplinspezifische Forschungsdatenmanagement (FDM) am Beispiel der internationalen MOSAiC-Expedition (Multidsciplinary drifting Observatory for the Study of Arctic Climate) aus dem Bereich der Geowissenschaften beziehungsweise der Erd- und Umweltwissenschaften.
Ziel der vorliegenden Arbeit ist es zu beantworten, inwieweit sich das disziplinspezifische, geowissenschaftliche FDM der MOSAiC-Expedition und das generische Verständnis von FDM aus Sicht der Informationswissenschaft unterscheiden und welchen Mehrwert dieses Wissen Bibliotheken für die Unterstützung geowissenschaftlicher Forschende im Umgang mit ihren Forschungsdaten bietet. Methodisch, nach dem Prinzip vom Speziellen zum Allgemeinen, wurden dafür eine Inhaltsanalyse, ein Experteninterview mit Datenmanagerinnen des Alfred-Wegener-Instituts und ein Abgleich durchgeführt.
Es zeigt sich, dass im kommunikativen Austausch gleichzeitig die Herausforderung und Chance von disziplinspezifischem FDM und FDM Unterstützungsservices besteht. Es gilt die drei Perspektiven auf das FDM (a) Institution, (b) Forschende und (c) informationswissenschaftliche Entwicklungsmodelle zu berücksichtigen. FDM ist auch im Bereich einzelner Disziplinen grundlegend generisch und sollte unter Beachtung von Disziplinspezifika ausgebaut beziehungsweise die Infrastruktur nach diesen ausgerichtet werden, um die Datenqualität und eine FAIRe Datennachnutzung zu sichern. Die Arbeit dient informationswissenschaftlichen Einrichtungen wie wissenschaftlichen Bibliotheken mit Forschenden aus dem Bereich der Geowissenschaften als Hintergrundinformation, um deren Datenkultur zu verstehen und den Datenumgang ziel- und nutzendenorientiert mit und im FDM unterstützen zu können. Darüber hinaus ist die vorliegende Arbeit für alle interessant, die die Besonderheit von disziplinspezifischem FDM im Vergleich zu generischem FDM anhand eines gesellschaftlich relevanten Praxisbeispiels verstehen und eventuell in der eigenen Institution unabhängig vom Fachbereich und den Disziplinen der Nutzenden verfeinern möchten.
Gegenstand der vorliegenden Arbeit sind Podcasts als Informationsdienstleistung Öffentlicher Bibliotheken. Im Fokus steht die Beobachtung, dass nur wenige deutsche Bibliotheken das Potential dieses Mediums erkennen und nutzen. Um Podcasts als digitale Informationsdienstleistungen zu verorten, erfolgt zunächst ein einleitender Teil über die Charakteristika und Vorteile dieser Dienstleistungsform sowie eine thematische Einführung zu Podcasts und dem Nutzungsverhalten von Hörer*innen. Darauf aufbauend wird aufgezeigt, welches Potential Podcasts für Öffentliche Bibliotheken bieten und welchen Nutzen die Einrichtungen aus der Veröffentlichung eines Podcasts ziehen können. Ob dieses Potential auch einen Niederschlag in der aktuellen Podcast-Landschaft von deutschen Öffentlichen Bibliotheken findet, wird in einer Kurzanalyse beleuchtet, bei der bestehende Podcasts hinsichtlich inhaltlichen und formalen Kriterien wie Themenspektrum, Audioqualität, Beschreibung der Folgen und anderen Faktoren untersucht und bewertet werden. Auf den Ergebnissen dieser Analyse und den Qualitätsstandards von Podcasts im Allgemeinen fußend erfolgt die Entwicklung eines Best-Case-Konzeptes für die Stadtbibliothek Köln, welches sich auch von anderen Einrichtungen adaptieren lässt. Dabei werden zunächst mittels einer SWOT-Analyse die Stärken, Schwächen, Chancen und Risiken ermittelt und im Anschluss die einzelnen Arbeitsschritte zur Umsetzung des Podcasts herausgearbeitet. Weiterhin werden Perspektiven aufgezeigt, die ein Podcast als Informationsdienstleistung der Stadtbibliothek Köln im Speziellen, aber auch den Öffentlichen Bibliotheken im Allgemeinen bietet. Im Ausblick wird schließlich dargelegt, welche potentiellen Entwicklungen die Etablierung von Podcasts für Öffentliche Bibliotheken, zum Beispiel im Bereich Medienkompetenz, nach sich ziehen kann.
Das Ziel der vorliegenden Arbeit ist es, die Berichterstattung des öffentlichrechtlichen Nachrichtenformats Tagesschau auf dem sozialen Netzwerk TikTok zu untersuchen und zu bewerten, ob das Nachrichtenformat Inhalte nach journalistischen Kriterien und spezifischen Aspekten des Internets und der Plattform TikTok vermittelt. Zur Beantwortung der Forschungsfrage wurde eine qualitative Analyse mit deduktiver Kategorienanwendung durchgeführt. Die Analyse zeigte, dass die Tagesschau sowohl journalistische, internetspezifische als auch TikTok-spezifische Kriterien abdecken konnte und somit als Best-Practice-Beispiel für etablierte Medienformate auf sozialen Plattformen bewertet werden kann. Der Kanal der Tagesschau konnte die Nachrichten an die Formate der Plattform anpassen und gleichzeitig klassische Aspekte journalistischer Integrität wahren.
Der 1926 geborene Jurist und Rechtsphilosoph Hermann Klenner gilt als einer der angesehensten Rechtswissenschaftler der DDR. Die auf Vollständigkeit ausgelegten Hermann-Klenner-Schriften (HKS) umfassen die von ihrem Autoren gesammelten Publikationen von 1952 bis in die heutige Zeit. Ende 2021 übergab Klenner die HKS an die wissenschaftliche Spezialbibliothek der Rosa-Luxemburg-Stiftung (RLSB) in Berlin. Die vorliegende Arbeit rekonstruiert die Integration der HKS als moderne Sondersammlung in den Bestand der RLSB unter dem Aspekt der inhaltlichen Erschließung. Nach Herausarbeitung des Stellenwerts inhaltlicher Erschließung in der einschlägigen Literatur zu Sondersammlungen werden zunächst mit der Thomas-Mann-Sammlung der ULB Düsseldorf und der Wilhelm-Fraenger-Bibliothek in Potsdam zwei Fallbeispiele moderner Sondersammlungen im Hinblick auf Besonderheiten bei der Indexierung analysiert. Im Anschluss wird aus den Faktoren Zielgruppe, Rahmenbedingungen und Charakter der HKS das angepaßte Erschließungskonzept der RLSB abgeleitet und expliziert sowie einer kritischen Bewertung unterzogen. Im letzten Kapitel werden die Ergebnisse zusammengefasst und Optimierungspotenziale identifiziert.
Corporate Podcasts als Content-Marketing-Instrument in der deutschen Unternehmenskommunikation
(2023)
Trotz steigender Relevanz nutzen nur wenige der deutschen Unternehmen Corporate Podcasts innerhalb ihrer Unternehmenskommunikation. Ziel dieser Bachelorarbeit ist, herauszustellen, inwiefern Corporate Podcasts für deutsche Unternehmen im privatwirtschaftlichen Sektor ein geeignetes Content-Marketing-Instrument in der Unternehmenskommunikation sind und wie diese genutzt werden können. Zur Beantwortung der Forschungsfrage erfolgt eine theoretische Auseinandersetzung, welche sich auf den aktuellen Forschungsstand bezieht. Diese theoretische Bachelorarbeit zeigt, dass deutsche Unternehmen im privatwirtschaftlichen Sektor einen Wettbewerbsvorteil durch die Nutzung von Corporate Podcasts erzeugen und die Umsetzung ohne technische Vorkenntnisse bezüglich Podcasts möglich ist. Weiterführende Forschung im Bereich Corporate Podcasts wäre aufgrund nicht existenter Studien zur Thematik insbesondere in Form quantitativer Studien wertvoll.