Refine
Year of publication
Document Type
- Bachelor Thesis (661) (remove)
Keywords
- Social Media (43)
- Öffentliche Bibliothek (38)
- Digitalisierung (22)
- Informationskompetenz (22)
- WordPress (22)
- Instagram (15)
- Konzeption (12)
- Marketing (12)
- Bibliothek (11)
- Journalismus (11)
Das Ziel der vorliegenden Arbeit ist es, anhand der Debatte über die katholische Wochenzeitung Publik zu untersuchen, inwiefern religionssoziologische Narative und Machtstrukturen dem Diskurs über Wesen und Zweck katholischer Presse zwischen 1965 und 1972 zugrunde lagen. Unter Bezugnahme auf die Methode der historischen Diskursanalyse von Achim Landwehr soll zuerst der Kontext des Diskurses skizziert und analysiert werden. Dabei sollen die historische Entwicklung des katholischen Milieus und der katholischen Presse als zweier eng zusammenhängender Phänomene nachgezeichnet werden. Darüber hinaus soll die Verflochtenheit der Rezeption des Zweiten Vatikanischen Konzils respektive der unterschiedlichen Hermeneutiken der Konzilstexte mit der Diskussion über die Sorge vor dem ‚Marsch ins Getto‘ kontextualisiert werden. Ein besonderer Fokus bei der Darstellung der Geschichte katholischer Presse soll auf die Konzeption katholischer Presse Hans Suttners gelegt werden, der den theoretischen und organisatorischen Grundstein für die Gründung von Publik gelegt hatte. Das Ergebnis der Arbeit soll schließlich verdeutlichen, dass zwei Dispositive den Diskurs deutlich prägten: einerseits das Milieu-Dispositiv einer katholischen Gegenelite, die damit die Identität ihres Milieus zu sichern und ihre Macht auszubauen trachtete und andererseits das Finanz-Dispositiv der Kritiker von Publik, vor allem aber der Bischöfe, die ihre Entscheidungsgewalt über die Fortsetzung der Finanzierung der Zeitung mithilfe von naturalisierenden Narrativen strategisch als diskursives Machtmittel einsetzten. Die verschiedenen prägenden Aussagen, Praktiken und Institutionen dieser beiden Dispositive sollen schließlich skizziert und künftige Forschungsfelder erschlossen werden.
Der Wettbewerbsdruck unter Hochschulen steigt. Um sich gegen die Konkurrenz durchzusetzen, nutzen Hochschulen vermehrt soziale Netzwerke wie Instagram. In diesem Zusammenhang werden immer mehr Accounts für einzelne Studiengänge erstellt, die Einblicke in das Studium geben sollen. Der Masterstudiengang Markt- und Medienforschung an der Technischen Hochschule in Köln hat bisher keinen eigenen Instagram-Account.
Das Ziel der vorliegenden medienpraktischen Bachelorarbeit ist daher die Konzeption und Umsetzung eines Instagram-Kanals für den besagten Masterstudiengang. Um das genannte Ziel zu erreichen, wurde eine Stakeholder-Analyse und eine Benchmarking-Analyse durchgeführt. Im Rahmen der Stakeholder-Analyse wurde neben der Auswertung von passender Literatur eine qualitative Umfrage mit Studierenden des Masterstudiengangs und ein Interview mit Dozierenden durchgeführt. Die Analyse ergab, dass als Hauptzielgruppe des Accounts die Studierenden des Masterstudiengangs und Studieninteressierte betrachtet werden sollen. Außerdem soll der Kanal den Studiengang Markt- und Medienforschung bewerben, relevante Informationen bereitstellen und das Ansehen der Hochschule stärken. Für die Benchmarking-Analyse wurden sechs Vergleichspartner analysiert. Aus den Ergebnissen konnten Best-Practices identifiziert und Erfolgsfaktoren ermittelt werden. Die Erkenntnisse zeigten die Relevanz von abwechslungsreichem, kontinuierlichem Content sowie die Erfolgschancen durch ein positives Nutzererlebnis.
This paper examines different business models of companies dealing with (earmarked) remittances and sheds light on the associated challenges of the industry, specifically, remittances for health, based on the model of the fintech startup GloryHealthCare. The work "Business Model Generation" by Osterwalder and Pigneur (2010) is used as a method for the analysis, as this is often used as a basis for the business models of startups. The study focuses regionally on Europe and Africa, as Germany and Ghana are the start-up's first target markets. Among other things, the industry's processes, pricing, and existing competition are examined. The SWOT analysis methodology clarifies the individual companies' opportunities and risks and makes a competitive position visible. Meanwhile, network effects of the diverse business models are made visible based on the paper "Digital Economy and Network Effects" by Frank Linde (2020). Network effects play a crucial role in the reach, influence, and competitiveness of existing and new businesses in the remittance industry. The study also emphasizes the importance of knowledge and networks, which are more important than financial resources. The previous aspects considered a basis for developing a new concept as an alternative to the Business Model Canvas: the iBusiness Model. The results of this study provide insights into the design of efficient business models and support companies in the remittance industry in developing strategies to overcome challenges and take advantage of opportunities.
Fast 80 Jahre nach Ende des Zweiten Weltkriegs und der nationalsozialistischen Herrschaft befinden sich noch immer NS-verfolgungsbedingt entzogene Kulturgüter in öffentlichen Einrichtungen. Auch Bibliotheken beschäftigen sich mit so genanntem NS-Raubgut in ihren Beständen und bedienen sich dabei der Hilfsmittel und Erkenntnisse der Provenienzforschung.
In der vorliegenden Arbeit wird ein Überblick über den Umgang mit NS Raubgut in deutschen Bibliotheken und im Rahmen der so genannten NS Provenienzforschung gegeben. Die Rückgabe solcher unrechtmäßig in die Bibliotheken gelangten Bestände ist eine ebenso wichtige wie komplexe Aufgabe, die immer mehr an Bedeutung gewinnt. Der erste Teil dieser Bachelorarbeit widmet sich den theoretischen Hintergründen der NS-Provenienzforschung, wohingegen der zweite Teil die praktische Auseinandersetzung mit NS-Raubgut in Bibliotheken behandelt. Zur Illustration dessen werden drei Bibliotheken, die sich früh und intensiv mit der Thematik befasst haben, als konkrete Fallbeispiele herangezogen.
Die vorliegende medienpraktische Bachelorarbeit soll den Entstehungsprozess einer Portfolio-Website für das Kreativstudio „formyspirits“ dokumentieren. Dabei sollen abgeschlossene Projekte aus Kunst und Design ausführlich präsentiert werden, um Interessierten einen tieferen Einblick in die Hintergründe der Projekte zu bieten. Da sich die Online-Präsenz des Studios auf Instagram beschränkt, möchte ich das Projekt professionalisieren, indem ich abgeschlossene Arbeiten auf einer Website präsentiere. Dabei handelt es sich um Projekte aus Design und Kunst, welche für Kunden, aber auch für die eigene Verwendung angefertigt werden. Die Website soll Interessierten und potenziellen Auftraggeber:innen mehr über die Hintergründe und Prozesse der jeweiligen Arbeiten nahe bringen und einen Überblick über die Umsetzungsmöglichkeiten geben. Dies soll langfristig zu einer leichteren Kundengewinnung führen. Bei der Umsetzung der Website werde ich die im Studium erlernten Fähigkeiten in den Bereichen CMS und UI/UX-Design anwenden und weiter vertiefen.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Konzeption und Entwicklung einer Social Media Strategie für einen Militär-Blog auf Instagram. Das Ziel dieser Strategie besteht darin, eine positive und authentische Berichterstattung über die Bundeswehr zu fördern und Bundeswehrinteressierte näher in die Welt des Militärs einzuführen, um ihnen den Weg zu einer militärischen Karriere zu ebnen. Dazu wurden vorab ausreichend Informationen über die Bundeswehr selbst gesammelt. Die Arbeit schließt unter anderem Themen wie Zielgruppenanalyse, Benchmarking-Analyse, Content-Strategie, Community Management, Social Media Analytics und Crossmedia mit ein.
Immer mehr Menschen wenden sich von den Nachrichten ab. Dieses Phänomen, das als News Avoidance bezeichnet wird, hat in den letzten Jahren deutlich zugenommen und beschäftigt sowohl die Wissenschaft als auch Journalist*innen aus der Praxis. Letztere haben auf der Suche nach Lösungen den Ansatz des Konstruktiven Journalismus entwickelt, der sich mithilfe konstruktiver Ansätze dem Negativ-Bias der Nachrichten entgegenstellen will. Diese Arbeit beschäftigt sich mit der Frage, wie sich der Blick aus der Praxis der konstruktiven Journalist*innen auf das Thema News Avoidance von dem der Wissenschaftler*innen unterscheidet. Zur Beantwortung dieser Frage wurde eine Literaturrecherche durchgeführt, die sowohl aktuelle wissenschaftliche Publikationen als auch Beiträge zum praktischen Diskurs wie Newsletter, Podcasts oder Blog-Beiträge umfasst.
Wie reagiert der deutsche Journalismus auf die zunehmende Bedeutung von Künstlicher Intelligenz?
(2023)
Als ChatGPT Ende November 2022 für die Öffentlichkeit zugänglich gemacht wurde, löste das Programm in Rekordzeit weltweit einen regelrechten KI-Wahn aus. Das Potenzial der sogenannten Large Language Models ist riesig: Die besondere Stärke der Modelle liegt in der Fähigkeit, natürlichsprachlich Fragen zu beantworten, Texte zu erstellen, zusammenzufassen, in andere Sprachen oder Sprachstile zu übersetzen oder Code zu produzieren. Doch die neuen KI-Systeme bergen auch ihre Schwächen und Risiken: Unter Umständen liefern diese beispielsweise plausibel klingende falsche Antworten. Dem Vormarsch der Künstlichen Intelligenz steht das allerdings nicht entgegen. Und dieser bleibt nicht ohne Folgen: Der Arbeitsalltag vieler Menschen wird sich ändern. Das gilt insbesondere für den deutschen Journalismus. Denn hier gibt es viele Tätigkeiten, die KI-unterstützt schneller und effizienter darstellbar sein werden. In der Medienbranche kommen Automatisierungen schon seit längerer Zeit zum Einsatz. Die vorliegende Arbeit nimmt die aktuellen Entwicklungen rund um Künstliche Intelligenz zum Anlass, um der Frage nachzugehen, wie er deutsche Journalismus auf die zunehmende Bedeutung genau dieser reagiert. Auf Basis einer qualitativen Vorgehensweise wurden themenübergreifende Frames in ausgewählten online veröffentlichten Texten untersucht. Dabei wurden verschiedene Akteure, die den deutschen Journalismus prägen, in den Blick genommen. Bei den Texten fanden sich immer wieder folgende Perspektiven: Potenziale, Herausforderungen, Technologischer Fortschritt, Arbeitsplätze und Medienethik. Als Ergebnis lässt sich festhalten, dass es keine einheitliche Reaktion des deutschen Journalismus auf die zunehmende Bedeutung von KI gibt. Zwar gibt es innerhalb der jeweiligen Perspektiven ähnliche Ansichten, am Ende werden aber sowohl innerhalb einzelner Gruppen wie der Journalistinnen und Journalisten als auch zwischen den Gruppen andere Bewertungen vorgenommen. Klar ist, dass KI-Anwendungen den Journalismus in den kommenden Jahren massiv prägen und auch verändern werden. In welchem Umfang und in welchen Ausmaßen, wird aber erst die Zeit zeigen. Bis dahin werden sich Medienhäuser detaillierter Gedanken machen müssen, wie Journalistinnen und Journalisten in Anbetracht der potenziellen Herausforderungen KI-gesteuerte Werkzeuge zur Optimierung des Journalismus nutzen können.
Das wirtschaftliche Interesse, welches in Daten steckt, ist unumstritten. Aktuell sind der Datenschutz und Souveränitätsansprüche von Verbrauchern im Fokus öffentlicher Diskussionen. Allgemein wird über das Konzept einer Datensouveränität diskutiert, welches primär als eine Verbraucherperspektive verstanden wird. Zudem ist ihr genauer Handlungsrahmen in der Datenökonomie unschlüssig. Nach fünf Jahren Datenschutz-Grundverordnung behandelt die Arbeit die Frage nach den Spannungsfeldern in der Umsetzungspraxis deutscher Unternehmen. Die Betrachtung der Spannungsfelder ist auf den Konflikt zwischen der Datenökonomie und der Datensouveränität zurückzuführen. Basierend darauf werden systematisch relevante Literaturen und zugehörige Studien zum Thema herausgearbeitet und dargestellt. Die Analyse zeigt den gegenwärtigen Zustand, Probleme und Hürden bei der der Datennutzung und der Umsetzung der DS-GVO. Die Arbeit veranschaulicht, dass es eine niedrige Nutzung von Daten und datengetriebenen Geschäftsmodellen in deutschen Unternehmen gibt. Zudem stellt sich heraus, dass die dargestellten Spannungsfelder weitestgehend unerforscht und ungelöst sind. Damit zusammenhängend wurde so der Konflikt zwischen der Datenökonomie und der Datensouveränität erläutert.
Das Metaverse ist eine computergenerierte virtuelle Welt, in der Benutzer interagieren und kommunizieren können, als ob sie in einer echten gemeinsamen Umgebung existieren. In den letzten Jahren haben sich die Gespräche um das Metaverse intensiviert, was wahrscheinlich durch öffentliche Persönlichkeiten wie Elon Musk und Mark Zuckerberg für die Allgemeiner interessanter gemacht wurde.
Aufgrund von neuen Technologien und Arten der Monetarisierung blicken Investoren und Experten auf die Videospieleindustrie als Vorreiter des Metaverse, denn sie beschäftigt sich seit jeher mit digitalen Welten. Besonders das erfolgreiche Spiel Fortnite als auch die Spieleplattform Roblox werden als mögliche Plattformen für das Metaverse ins Gespräch gebracht. Diese Arbeit beschäftigt sich mit der Frage, ob das Metaverse bereits Auswirkungen auf die Videospieleindustrie hat. Auftretende Netzwerkeffekte innerhalb der Branche werden durch eine Literaturanalyse im ersten Teil des Hauptteils herausgearbeitet, um im späteren Verlauf Netzwerkeffekte von Fortnite und Roblox mit Hilfe eines an Informationsprodukte angepassten Business Model Canvas zu erforschen.
Durch einen Vergleich der Effekte soll die Auswirkung des Metaverse greifbar gemacht werden. Es stellt sich heraus, dass beide untersuchten Anbieter mehrseitige Plattformen als Geschäftsmodell haben und werbende Marken für das Gewinnen von Geld in ihre virtuellen Erzählwelten integrieren. Bei den untersuchten Anbietern treten die selben Netzwerkeffekte auf wie bei regulären Multiplayer-Spielen der Videospieleindustrie, doch werden diese durch Netzwerkeffekte ergänzt, die besonders für Plattformen eine Rolle spielen. So können die Ergebnisse der Arbeit dahingehend interpretiert werden, dass das Metaverse bereits Auswirkungen auf die Industrie hat, da sich Fortnite und Roblox mehr zu Plattformen entwickeln, die für das Metaverse genutzt werden können.
Die spannende Zukunft von Videospielen in Bezug zum Metaverse sollte durch weitere Untersuchungen begleitet werden.
Bereits bei der Digitalisierung analoger Medien muss die digitale Langzeitarchivierung beachtet werden, um die langfristige Verfügbarkeit und Zugänglichkeit zu garantieren. In dieser Arbeit wird ein Kriterienkatalog für die Digitalisierung von gedruckten Werken erstellt. Dieser legt Mindestanforderungen fest, die bereits bei der Erstellung der Digitalisate zu beachten sind, um die digitale Langzeitarchivierung zu erleichtern. Der Kriterienkatalog basiert auf einer ausführlichen Literaturrecherche und gliedert sich in drei Abschnitte. Der ersten Abschnitt Organisatorisches und Voraussetzungen definiert wichtige Prozesse und bietet die Möglichkeit der Erfassung der Vorgaben durch Bestand oder Repositorium. Im zweiten Abschnitt werden die wichtigsten zu erfüllenden Technischen Parameter (z. B. Auflösung, Farbraum, Dateiformat) erläutert. Im dritten Abschnitt werden die für die jeweiligen Metadatenarten zu erfassenden Metadaten festgelegt. Die Software BCS-2 der ImageWare Components GmbH wurde anhand dieses Kriterienkatalogs getestet. BCS-2 ermöglicht die Erfüllung der Technischen Parameter. Bei der Erfassung der Aufbewahrungsmetadaten ist die automatische Dokumentation nicht ausreichend. Es fehlt an automatischer Qualitätskontrollmechanismen wie Dateiformatvalidierung.
Dieses Dokument umfasst den schriftlichen Teil meiner medienpraktischen Bachelorarbeit, deren Ziel die Konzeption und praktische Umsetzung eines Gaming-Podcasts ist. Dieser beinhaltet die Formatidee eines kritischen Gesprächs zwischen zwei Videospieler*innen mit unterschiedlichen Spielvorlieben und Expertisen. Ferner wird die Zielgruppe als Gamer*innen identifiziert und eine Analyse relevanter Wettbewerber*innen durchgeführt. Aufbauend auf den Ergebnissen all dessen wird Inhalt, Gestaltung, Technik, und Distribution des Podcasts sowie eine Strategie für einen begleitenden Instagram-Kanal konzipiert. Anschließend wird die Umsetzung beider Konzepte dokumentiert und schlussendlich reflektiert.
Insbesondere Forschende von Einrichtungen in Ländern des Globalen Südens haben bis vor zwanzig Jahren unter Zugangsbeschränkungen zu aktuellen Forschungsergebnissen, in Form hoher Subskriptionsgebühren wissenschaftlicher Fachzeitschriften, gelitten. Mit der Budapester Open Access Initiative von 2002 wurde die Hoffnung auf eine Verbesserung der Zugangsverhältnisse sowie der Wahrnehmung von wissenschaftlichen Publikationen aus Ländern des Globalen Südens geweckt. Das Ziel der vorliegenden Arbeit ist es, am Beispiel Kolumbiens als ein Land des Globalen Südens, zu untersuchen, ob positive Auswirkungen der Open Access-Maßnahmen auf den Publikationsoutput wissenschaftlicher Erkenntnisse, den Zugang zu Literatur und die Wahrnehmung des Publikationsoutputs empirisch belegbar sind. Dazu wird die folgende Forschungsfrage gestellt: Welche Auswirkungen haben die Open Access-Maßnahmen Kolumbiens auf die Zugangsmöglichkeiten kolumbianischer Autor:innen zu Artikeln impact-starker Zeitschriften und die Wahrnehmung kolumbianischer Publikationen von 2002 bis 2022 gehabt? Um die Forschungsfrage zu beantworten, wurde eine quantitative Literaturstudie in der Datenbank Scopus zum Publikationsoutput Kolumbien von 2002 bis 2022 durchgeführt. Speziell wurden Daten in Bezug auf die Entwicklung des Open Access-Publikationsaufkommens Kolumbiens inklusive und exklusive internationaler Mehrautor:innenschaften erhoben. Zusätzlich wurden die Daten der Referenzen und die Zitationsrate der meistzitierten kolumbianischen Open Access-Veröffentlichungen ermittelt sowie der Anteil der kolumbianischen Publikationen in den Referenzen des meistzitierten, internationalen Publikationsaufkommens von 2002 bis 2022 gemessen und im Hinblick auf das zeitliche Auftreten von Open Access-Maßnahmen interpretiert.
Die ergriffenen Open Access-Maßnahmen Kolumbiens innerhalb der vergangenen zwei Jahrzehnte korrelieren mit einer kontinuierlichen Wachstumsrate des Open Access-Publikationsaufkommens sowie einem erhöhtem Zugang zu Artikeln impact-starker Zeitschriften und einer gestiegenen Wahrnehmung des kolumbianischen wissenschaftlichen Publikationsoutputs. Aufgrund der zum Erstellungszeitpunkt der vorliegenden Arbeit kürzlich beschlossenen nationalen Open Science Policy werden weiterführende Studien zur Auswirkung auf den Publikationsoutput Kolumbiens empfohlen.
Das Fernsehen als beliebtes und einflussreiches Massenmedium ist von technologischen Fortschritten und Digitalisierung betroffen, wodurch die Zukunft des traditionellen Fernsehens in Frage gestellt wird. Diese Bachelorarbeit untersucht die aktuellen Entwicklungen und Prognosen für das Medium, mit Fokus auf den Auswirkungen auf den öffentlich-rechtlichen Rundfunk, Journalismus, Ausbildung und Gesellschaft. Die Forschungsfrage beschäftigt sich mit den Auswirkungen von Online-Video-Diensten auf das lineare Fernsehen und der Zukunft der Fernsehindustrie. Die Arbeit basiert auf umfassender Literaturrecherche, analysiert Zukunftsprognosen und verwendet qualitative Forschungsmethoden wie Inhaltsanalysen. Sie betont die Notwendigkeit, dem digitalen Wandel gerecht zu werden, indem traditionelle Strukturen erweitert und den Nutzererwartungen angepasst werden.
Die vorliegende Arbeit beschäftigt sich mit der durch Social Media ausgelösten „Fear of missing out“ (FoMO) und verfolgt das Ziel, auf Basis einer Literaturrecherche die Auswirkungen von FoMO auf das psychische Wohlbefinden in der frühen und mittleren Adoleszenz zu untersuchen. Hierfür werden zunächst das Phänomen FoMO erklärt und dessen Relevanz in der betrachteten Altersphase ermittelt. Darauf aufbauend zeigt diese Arbeit die Zusammenhänge von FoMO und Social Media auf und erläutert die Einflüsse von FoMO auf das psychische Wohlbefinden. FoMO ist gekennzeichnet durch die Angst, andere könnten lohnendere Erfahrungen machen als man selbst. Zentrale Erkenntnisse dieser Arbeit sind, dass FoMO und Social Media in einem engen Zusammenhang stehen und FoMO das psychische Wohlbefinden durch Gefühle von Stress, Niedergeschlagenheit und Unzulänglichkeit stark beeinträchtigten kann.
Verbesserung der automatischen Dokument-Klassifikation für den Discovery Service LIVIVO von ZB MED
(2023)
Diese Arbeit beschreibt, wie eine Grundlage geschaffen wird, um die Dokumentenklassifikation der Suchmaschine LIVIVO durch eine Eigenentwicklung der ZB-Med zu ersetzen. Das bisher eingesetzte
System basiert auf einer proprietären Software der Averbis GmbH und bietet keine Möglichkeit, diese von ZB-Med anpassen oder erweitern zu lassen. Damit die Klassifikation der Dokumente innerhalb der Datenbank, der Suchmaschine LIVIVO, verbessert werden kann, soll ein neues System entwickelt werden.
Um dieses Ziel erreichen zu können, konzentriert sich diese Arbeit auf eine explorative Analyse der vorhandenen Daten sowie auf die Erstellung erster Klassifikationsmethoden und den damit verbundenen Aufbau eines Textkorpus. Diese neu erstellten Methoden basieren auf existierenden Klassifikationsmodellen wie Stochastic Gradient Descent Classifier (SGDC), Term-Frequenzy Inverse-Document-Frequenzy (TF-IDF) und Latent Dirichlet Allocation (LDA). Die Ergebnisse dieser Modelle
werden diskutiert und evaluiert. Die erstellten Leistungskurven der Modelle und Textkorpi können somit als Vergleich, sowie Grundlage für weitere Arbeiten am System verwendet werden.
Die Zahl der wissenschaftlichen Publikationen steigt von Jahr zu Jahr. Der technologische Fortschritt hat es den Forschenden erleichtert, Daten zu sammeln, zu analysieren und zu verarbeiten. Aufgrund von Faktoren wie dem starken Wettbewerb um Forschungsgelder, Arbeitsplätze und Anerkennung wird die Anzahl und Reichweite von Publikationen als ein wichtiger Indikator für die Leistung und den Erfolg von Wissenschaftlern angesehen. Die Zunahme von Publikationen kann aber auch zu einer Zunahme von unzureichend überprüften oder nicht reproduzierbaren Ergebnissen führen.
Die Integrität der wissenschaftlichen Literatur wird durch das Zurückziehen (engl. Retraction) fehlerhaft veröffentlichter Publikationen gewahrt. Die Kennzeichnung zurückgezogener Artikel in online verfügbaren Quellen ist daher von großer Bedeutung. In dieser Ausarbeitung wird die im Suchportal LIVIVO verfügbare Literatur auf zurückgezogene Artikel untersucht. Retraction Watch, ein amerikanischer Blog, bietet eine Datenbank zurückgezogener Artikel mit fast 40.000 Einträgen. Um die beiden Datensätze miteinander vergleichen zu können, wird eine lokale Datenbankanwendung entwickelt, die einen Abgleich und eine anschließende Analyse ermöglicht. Für die Anreicherung der Metadaten für LIVIVO wird empfohlen, den Digital Object Identifier (DOI), das Datum und die PubMedID, unter der der zurückgezogene Artikel veröffentlicht wurde, mit aufzunehmen.
Der Abgleich gibt einen ersten Eindruck über das Vorhandensein zurückgezogener Artikel im Suchportal. Es wurden 14.206 Einträge identifiziert, wobei in den letzten Jahren ein stetiger Anstieg in der Anzahl zu verzeichnen ist.
Wikidata ist eine frei zugängliche Plattform, die von Menschen und Maschinen bearbeitet werden kann. Um zu verstehen, wie die Plattform funktioniert und wie die Daten miteinander verknüpft sind, beschäftigt sich diese Bachelorarbeit mit dem Import von Orcid-autor:innen- und The Research Organization Registry (RoR)-Organisationsdaten in Wikidata und den Möglichkeiten, diesen Prozess zu automatisieren. Um dies herauszufinden, wurden verschiedene Ansätze untersucht, beschrieben beziehungsweise getestet. Beispiele sind der Wikidata Integrator, SPAQRL und Quickstatements. Die Tests wurden durchgeführt, indem einzelne Datensätze auf unterschiedliche Weise durch die Tools gelaufen wurden. Die Tools mit den größten Erfolgsaussichten waren Wikidata-integrator und Quickstatements. Beide ermöglichen das Hochladen von Daten per Skript. Wobei Quickstatements auch eine manuelle Eingabe der Daten ermöglicht, sofern sie als Quickstatements strukturiert sind. Das Ziel der Arbeit war, es die Autor:innen Metadatei „Affiliation“ auf Wikidata zu integrieren. Dies ist schlussendlich aus verschiedenen Gründen nicht gelungen. Diese werden ausführlich in den Problemen und Ergebnissen beschrieben. Als alternative wurde der RoR-Datensatz verwendet, um die Organisationsmetadaten „established“ auf Wikidata gepusht.
Durch den Aufstieg der sozialen Medien und deren Potenzial zur direkten Kundeninteraktion wird das Medium E-Mail als Kommunikations- und Marketingkanal heutzutage oftmals als veraltet angesehen. Das Ziel der vorliegenden Arbeit ist es, zu untersuchen, wie relevant E-Mail-Marketing in der heutigen Zeit noch für die Kundenbeziehungen speziell von E-Commerce-Unternehmen ist. Als Grundlage für die Untersuchung werden Quellen von E-Commerce- und E-Mail-Marketing-Experten verwendet. Es handelt sich um eine Literaturarbeit. Es wird analysiert, mit welchen Methoden E-Commerce-Unternehmen ihre Kunden durch E-Mail-Marketing an sich binden können und wie signifikant sich E-Mail-Marketing auf die Kundenbeziehungen auswirkt. Aus der Bachelorarbeit ergibt sich, dass sich durch die personalisierte Ansprache der Kunden, sowie der engen Begleitung während der Customer Journey eine starke Bindung aufbauen lässt und ein loyaler Kundenstamm etabliert werden kann, der den langfristigen Erfolg von E-Commerce-Unternehmen sicherstellt.
Die Datenschutzbestimmungen rund um die Datenschutzgrundverordnung, das Telekommunikations-Telemedien-Datenschutz-Gesetz und die App-Tracking Transparenz unter dem Betriebssystem iOS 14.5 von Apple haben Werbetreibende in den letzten fünf Jahren vor neue Herausforderungen gestellt und Werbemaßnahmen auf Social Media stark verändert. Insbesondere der Umgang mit Cookies und personenbezogenen Daten wurde stark beschränkt. Expert:innen sind sich einig, dass das Cookie-Tracking bald der Vergangenheit angehören und das Cookieless-Tracking die Online-Werbewelt dominieren wird. Heutzutage gibt es vielfältige Möglichkeiten, mit denen Werbetreibende ihre Zielgruppen ohne große Streuverluste und Cookies entlang des Marketing-Funnels erreichen können. Mit dem serverseitigen Tracking über die Conversion API bietet der Konzern Meta Platforms eine davon. Es bedarf jedoch weiterhin der aktiven Zustimmung der Nutzer:innen, sodass Datenlücken entstehen können und Retargeting-Zielgruppen dadurch nur eingeschränkt einsetzbar sind. Eine alternative Tracking-Methode ist das Arbeiten ausschließlich mit plattformeigenen Daten von Meta. Der Vorteil liegt darin, dass keine zusätzliche Tracking-Zustimmung durch die Nutzer:innen benötigt wird und somit keine Datenlücken entstehen. Auf der anderen Seite können keine Websitedaten analysiert und Daten der Zielgruppe eingesehen werden, das möglicherweise dazu führt, dass wichtige Erkenntnisse im finalen Kaufprozess auf der Website verloren gehen. Aktuell gibt es keine Tracking-Methode, die nur Vorteile mit sich bringt. Vielmehr müssen Werbetreibende durch strategisches Testen individuell entscheiden, welche Tracking-Methoden für ihr Unternehmen am besten geeignet sind. Die vorliegende Arbeit definiert dabei konkrete Handlungsempfehlungen, die Werbetreibende bei der Auswahl der Tracking-Methode für einen strategischen Werbeauftritt auf Meta unterstützen.
Aktuell ist kein Expertensuchsystem auf Webseite der TH Köln vorhanden, über das Interessierte oder Forschende nach Themengebieten bzw. Wissenschaftsfächer der jeweiligen Experten suchen können. Im Rahmen des Projekts Research Knowledge Discovery – Detektion von Experten und Aufbau eines Recommender-Systems für die TH Köln wurden einige Arbeitsergebnisse geschafft, wie die durchgeführte inhaltliche Erschließung und somit die Erstellung eines einfachen Erschließungskonzept. Da bei der Strukturierung des Vokabulars Verbesserungsmöglichkeiten vorhanden sind, ist das Ziel der vorliegenden Bachelorarbeit die Erstellung eines systematischen Thesaurus der TH Köln für ein Expertensuchsystem auf Basis der durch Research Knowledge Discovery – Detektion von Experten und Aufbau eines Recommender-Systems für die TH Köln gemachten Projekte. Sowohl für ein Suchsystem als auch Expertensuchsystem ist eine Navigations- und Suchfunktion erforderlich. Infolgedessen wird das Vokabular für das Navigieren benötigt.
Um dies zu erzielen, wurden im Programm MIDOS6 – MIDOSThesaurus Thesaurus und Systematik der Wissenschaftsfächer der TH Köln entwickelt. Vor der Erstellung des Thesaurus in der Kombination mit Systematik wurde die inhaltliche Erschließung der ausgewählten Datenbasis in der Excel-Datei durchgeführt. Inhaltlich erschlossene Begriffe wurden als Deskriptoren der dritten Hierarchiestufe im Thesaurus zugeordnet.
In weiterführenden Projektarbeiten kann der systematische Thesaurus weiter mit Verbesserungsvorschlägen optimiert und in ein Expertensuchsystem eingebaut werden, sodass die Suche der Interessierten oder Forschenden nach Experten der jeweiligen Wissenschaftsfächer erleichtert wird.
Die vorliegende wissenschaftliche Thesis thematisiert Internet Memes als Kommunikationsform und soll die Frage klären, inwiefern Meme Pages im Social-Web eine popkulturelle Relevanz im Alltag aufweisen. Die Entstehung von Memes wird in einen historischen Kontext eingebettet und zeigt den Weg der ersten Memes bis heute. Anhand der Analyse von drei Meme Pages, sowie der Beschreibung von vier der relevantesten Entstehungsorte für Internet-Memes, wird ein wichtiger Baustein zur Klärung der popkulturellen Relevanz gelegt. Die Arbeit wird auf Nutzungszahlen von Plattformen wie Instagram eingehen, sowie Bekanntheitsgrade von Meme Pages anhand von Followerzahlen festmachen. Es werden beliebte Memes der Seiten gezeigt, um die Relevanz und Popularität weiter zu verdeutlichen. Dabei stützt sich die Diskussion u. a. auf Limor Shifman, die sich in ihrem Buch „Memes in Digital Culture“ ausgiebig mit dem Thema Memes in einer digitalen Kultur auseinandergesetzt hat. Die Relevanz persönliche Erlebnisse im Netz zu teilen und Memes als rekontextualisierte Form popkultureller Ereignisse im Netz zu verbreiten ist dabei Kern der Ergebnisse.
Seit des Neurodiversity-Movements sind vor allem die Zahlen der Autismus- und ADHS-Diagnosen konstant gestiegen. Eine Anpassung von Bibliotheken bezüglich inklusiver Maßnahmen zur Förderung neurodivergenten Bibliothekspersonals blieb jedoch bisher aus. Dies könnte im Zusammenhang dazu stehen, dass Neurodivergenz unsichtbar ist, oft nicht oder erst spät erkannt wird und in beruflichen Kontexten meistens maskiert wird. Personalmanager wissen bei unsichtbaren Behinderungen außerdem häufig nicht, dass diese unterstützt werden müssen und wie genau Unterstützungsangebote hierfür überhaupt aussehen können.
Das Ziel der vorliegenden Arbeit ist es über diesen Unterstützungsbedarf aufzuklären und es werden Vorschläge möglicher Unterstützungsangebote formuliert, welche das Personalmanagement in Bibliotheken bedarfsspezifisch umsetzen kann. Dabei werden die neurodivergenten Konditionen Autismus, ADHS, Dyskalkulie und Legasthenie im Fokus stehen.
Das Fundament der Arbeit bildet ein triangulatorischer Ansatz, wobei auf den Erkenntnissen der Vergleiche verschiedener Bewegungen sowie Modelle der Behinderung aufgebaut wird. Die Literaturauswahl stellt dabei einen umfassenden Mix aus Studien dar, deren Ergebnisse zum Teil mit Praxisbeispielen Neurodivergenter in Verbindung gesetzt wurden. Der Auskunftsdienst wird zusätzlich separat im Hinblick auf die Herausforderungen betrachtet, vor die sich Neurodivergente bei der Ausführung gestellt sehen.
Die Ergebnisse weisen dabei darauf hin, dass neurodivergente Bibliotheksangestellte ein sehr hohes Risiko für Diskriminierungen am Arbeitsplatz aufweisen, weshalb es wichtig ist, dass neurodiverses Personal in diese Richtung geschult wird. Außerdem bedürfen Neurodivergente voraussichtlich individuell auf sie zugeschnittener, inklusiver Maßnahmen am Arbeitsplatz. Dies trifft besonders auf den Auskunftsdienst zu, bei dem auch ein Paradigmenwechsel in Bezug auf seine Kriterien notwendig ist.
Die vorliegende Bachelorarbeit befasst sich mit der Frage, inwiefern öffentliche Bibliothekare in Kinofilmen und Fernsehserien sich vom Berufsbild deutscher und internationaler Bibliotheksverbände unterscheiden. Ziel der Arbeit ist es, sowohl Gemeinsamkeiten als auch Unterschiede zu identifizieren, die zwischen den stereotypischen Verfilmungen und der tatsächlichen beruflichen Rolle von Bibliothekaren auftreten. Insgesamt werden acht Kinofilme und elf Fernsehserien, in denen öffentliche Bibliothekare als Charaktere vorkommen, im Zeitraum der letzten fünf Jahre untersucht. Die Ergebnisse der formalen und inhaltlichen Kategorien stehen dabei im Mittelpunkt der Analyse, da sie dazu beitragen, die Bedeutung einer differenzierten Darstellung in den Medien zu betonen. Sie liefert zudem Impulse für weitere Forschungsansätze zur Repräsentation von Berufen und deren Einfluss auf die öffentliche Wahrnehmung.
Compact Discs sind Datenträger, die in großer Zahl in den Beständen von Gedächtnisorganisationen vorkommen. Weil die Datenträger nur begrenzt haltbar sind, entwickelt sich immer stärker die Notwendigkeit, die Daten von den Trägern zu trennen und gesondert zu archivieren. Die Arbeit gibt einen Überblick darüber, welche Institutionen das Problem auf welche Art und Weise angehen und schlägt Perspektiven für die Zukunft vor. Im theoretischen Teil wird der Begriff „Gedächtnisorganisation“ geklärt, es wird die Bewahrungsproblematik von CDs ausgeführt und es werden Migration und die Erstellung von Disc Images zur Emulation als Archivierungsoptionen erläutert. Im Praxisteil werden mithilfe von Interviews und Literaturarbeit verschiedene Einrichtungen und deren individuelle Strategien vorgestellt. Es zeigt sich deutlich, dass die Langzeitarchivierung optischer Datenträger aktuell noch ein sehr individuelles Thema ist, das Einrichtungen primär aus eigener Motivation angehen und bislang nur wenig Zusammenarbeit stattfindet, um gemeinsame Lösungen zu entwickeln. Abschließend werden Vorschläge formuliert, was unternommen werden kann, um die Langzeitarchivierung in Deutschland zu vereinheitlichen und zu rationalisieren.
Schulungen zu Predatory Publishing: Identifikation von Best Practices an deutschen Universitäten
(2023)
Predatory Publishing ist eine aus dem Open Access entstandene Geschäftspraktik. Verlage machen sich die Unwissenheit von Forscher*innen zunutze, um sich selbst zu bereichern. In der folgenden Ausarbeitung wird untersucht, wie verbreitet Bibliotheken zu Predatory Publishing aufklären und welche Inhalte und Methoden sich als Best Practice für Informationsangebote anbieten. Inhaltlich überschneiden sich die Angebote in vielen Punkten und je nachdem wie umfangreich die Angebote geplant sind, werden Informationen mit Beispielen vertieft. Der gängige didaktische Aufbau für Workshops besteht aus einem theoretischen Teil und einer Übung, um das Gelernte anzuwenden.
Die vorliegende medienpraktische Arbeit befasst sich mit der Entwicklung und Umsetzung einer Content-Strategie für die Künstlermarke artbyalexcarla. Dieser liegt eine ausführliche Analyse der Akteure des Kunstmarktes, als auch dem Kunsthandel und der dortigen Kommunikation zugrunde. Auf Grundlage dieser wurde daraufhin für den Instagram Auftritt von artbyalexcarla ein Content-Audit durchgeführt. Dieser beinhaltet die Analyse des IST-Zustandes, Wettbewerber sowie eine genauere Definition der Zielgruppe. Zur Umsetzung der Strategie wurde für den Instagram-Account sowohl inhaltlich als auch visuell Content geplant und produziert, welcher abschließend evaluiert wurde. Auch wurden in dieser Arbeit die Website sowie Offline-Präsenz der Künstlerin berücksichtigt. Auf Grundlage der Strategie soll es dann möglich sein für artbyalexcarla zielgerichtetes Marketing zu betreiben, um kommerziellen Erfolg erreichen zu können.
Das Ziel in dieser Arbeit soll es sein ein Recommender System für den Fußball zu entwickeln, welches Vereine bei der Suche nach potenziellen neuen Spielern unterstützen soll. Um dieses System zu entwickeln bedarf es zunächst einer Sichtung von möglichen Datenquellen. Hierzu wird letztlich ein Webscraper verwendet um benötigte Daten von Spielern von der Seite fbref.com zu sammeln. Für die Analyse der Daten wird das k-means Clustering verwendet, welches die Spieler innerhalb ihrer unterschiedlichen Spielstile einteilen soll. Zur Verbesserung der Clustering Ergebnisse werden die Spieler bereits zuvor in die Kategorien Verteidigung, Mittelfeld und Sturm unterteilt. Die gewonnenen Spielercluster werden in einem abschließenden Schritt mittels Faktorenanalyse miteinander verglichen und die Spieler erhalten innerhalb ihres Clusters eine Platzierung. Mit Hilfe dieser Platzierung soll es Vereinen ermöglicht werden, bereits erste Vorauswahlen treffen zu können.
Der digitale Wandel, getrieben durch die Evolution von „New Media“ mit ihren interaktiven, multimedialen Merkmalen und globaler Zugänglichkeit, hat nachhaltige Auswirkungen auf die Bereiche Journalismus, Unterhaltung und Wissenschaftskommunikation hinterlassen. Innerhalb dieses Rahmens dienen Podcasts als zugängliche, offene Plattform zur Verbreitung wissenschaftlicher Informationen und zur Förderung interdisziplinärer Diskussionen, wobei Herausforderungen im Hinblick auf die auditiven Eigenschaften und die Notwendigkeit evidenzbasierter Kommunikation bestehen. Das Hauptziel dieser Studie besteht darin, die jüngsten Fortschritte in KI-gesteuerten Transkriptionsverfahren zu nutzen, um effiziente und hochwertige Transkriptionen zu realisieren. Darüber hinaus werden neue Ansätze zur Steigerung der Auffindbarkeit, Zugänglichkeit und Verbreitung wissenschaftlicher Inhalte diskutiert. Für diese Studie wurden Audio-Daten aus dem bilingualen Common Voice-Datensatz und dem englisch-sprachigen GigaSpeech-Datensatz verwendet, um automatisierte Transkriptionen zu erstellen. Die Transkriptionen wurden anschließend mithilfe von Metriken wie der Wortfehlerrate und des Jaro-Winkler-Ähnlichkeitsmaß bewertet. Die Ergebnisse dieser Untersuchung verdeutlichen, dass die Genauigkeit des ASR-Modells „Whisper“ von OpenAI von verschiedenen Faktoren abhängig ist. Hierzu zählen die Sprache, verschiedene Dialekte, Akzente, Altersgruppen und Themengebiete. Im Gesamten betrachtet konnte die Transkription von englischen im Vergleich zu deutschen Daten präziser durchgeführt werden. Trotz gelegentlicher Fehler zeigten die durch ASR generierten Transkriptionen eine signifikante Ähnlichkeit zur Ground Truth, was auf ihr Potenzial für die Transkription von Podcasts hinweist. Ein Vergleich verschiedener Modellgrößen ergab, dass größere Modelle eine überlegene Leistung erbrachten. Diese robusten Ergebnisse legen nahe, dass Transkriptionen eine sinnvolle Ergänzung zu den vorhandenen Metadaten von Podcasts darstellen und zur Verbesserung von Retrieval-Anwendungen genutzt werden können.
Des Weiteren bieten Transkriptionen eine solide Grundlage für die Anwendung fortgeschrittener Methoden des NLP zur Extraktion entscheidender Informationen, wie beispielsweise Verweise und Entitäten, welche in ein vernetztes System, wie Knowledge Graphs, integriert werden können, um Podcast-Inhalte auf effiziente Weise zu strukturieren und Verknüpfungen zu anderen Wissensquellen herzustellen.
This thesis aims to extend an existing Open Educational Resource (OER), which is available as a GitHub repository, and provide an organized introduction to basic machine learning (ML) concepts and algorithms. Further models, followed by structured metadata for each object, will be included while adhering to the contribution guidelines of the OER and following the CC license. The Machine-Learning-OER Basics repository intends to provide a wide range of benefits by enabling diverse users to apply and distribute machine learning algorithms. The goal of this digital collection is to fill the existing gap for instructional material on using machine learning in OER as well as make it easier to learn ML concepts effectively. These ML models are developed using the programming language Python and the library scikit-learn, among other standard libraries. Jupyter Notebook will make it straightforward for the user to explore the code. In order to apply the models to various practical scenarios, a non-specific data set is selected. This work is considered a solution approach in that it includes adding classification models.
A performance comparison of the models is conducted. This comparative analysis evaluates the efficiency of each model. The examination includes various metrics for measurement. This work serves as a written extension, providing comprehensive background information on the algorithms utilized within the repositories and the performance comparison.
Für die einfache Literaturrecherche von Fachinformationen bietet die ZB MED eine Literaturdatenbank namens LIVIVO an. Um eine thematische Suche zu ermöglichen, befasst sich diese Bachelorarbeit mit der Themenklassifikation der in der Datenbank vorhandenen Publikationen. Das Ziel der Arbeit besteht darin, den Korpus für eine automatisierte Klassifizierung aufzubereiten, um eine relevante Klasseneinteilung zu erzielen. Ausgehend von der Annahme, dass eine Textklassifizierung durch spezifische Terme und Schlüsselwörter gezieltere und aussagekräftigere Ergebnisse liefern kann, wird eine themenspezifische Aufbereitung mithilfe von Wissensorganisationssystemen (Thesauri) eingebunden. Hierzu wird im Vorhinein eine automatisierte Spracherkennung der Publikationen implementiert. Nach der Indexierung der Schlüsselwörter in den Dokumenten werden zwei statistische Klassifikationsmodelle für die Klassifizierung angewandt. Hierzu gehört die Latent Dirichlet Allocation, sowie der Stochastic Gradient Descent Classifier. Abschließend wird die automatische Schlagwortextraktion mit einer intellektuellen Themenanalyse verglichen und die Performance der Klassifizierung mit den aufbereiteten In Input-Daten auf eine Verbesserung hin analysiert.
Durch die Corona-Pandemie haben die Instrumente und Ideen des New Work an Wichtigkeit gewonnen. Sie beinhalten sowohl ein Neudenken des Begriffs der Arbeit generell als auch die Umstrukturierung der Arbeit in Umfeld, Raum und Rahmen zugunsten der Arbeitnehmenden im Speziellen. Durch die plötzliche Home-Office-Pflicht ergaben sich für viele Firmen und Unternehmen neue Umstände, die ein Umdenken von Arbeit und Raum nötig machten. Mit einem Mal wurden einige Instrumente des New Work zu einem Standard. Die Grundidee des New Work gibt es schon seit den 1980ern, sie wurde von Frithjof Bergmann entwickelt. Die Definition, die momentan (2023) genutzt wird, besteht erst seit circa 2020 und ist somit noch im Entwicklungs- und Erprobungsstadium. Dennoch können und könnten einige der Instrumente in den internen Personalprozessen wissenschaftlicher Spezialbibliotheken genutzt werden. Die vorgestellten Methoden sind die der flachen Hierarchien, der flexiblen Arbeitsstrukturen und der Mitarbeiterbindung.
Persönlichkeitsbildung ist ein wichtiger Bildungsbereich, welcher in Bibliotheken als Bildungseinrichtungen aufgegriffen werden kann. Daher wird Persönlichkeitsbildung in der bibliothekarischen Veranstaltungsarbeit am Beispiel von theaterpädagogischen Projekten innerhalb dieser Bachelorarbeit thematisiert. Aus der psychologischen Definition von Persönlichkeit und Persönlichkeitsentwicklung geht hervor, dass dies eine Eigenleistung ist, die unterstützt werden kann. In Bezug auf gesellschaftliche Rollen, Identitätsbildung und kulturelle Ausdrucksmöglichkeiten, die im Jugendalter relevant sind, gilt es theaterpädagogische Projekte als Option zu betrachten. Dort kann eine soziale Realität geschaffen werden, die Teilnehmenden vielseitige Möglichkeiten zur Persönlichkeitsbildung zur Verfügung stellt. Bibliotheken können als kultureller Raum solche Angebote in ihrer Veranstaltungsarbeit ansiedeln.
Das Ziel dieser Arbeit ist herauszufinden, wie sich das Nachhaltigkeitsziel Gesundheit und Wohlergehen (SDG 3) der Agenda 2030 für nachhaltige Entwicklung in Bibliotheken umsetzen lässt. Angebote zur Bewegung und zur Gesundheitsbildung sind zumeist noch nicht Bestandteil von Bibliotheksaufgaben. Um die Forschungsfrage zu beantworten, wurden Literaturrecherchen durchgeführt. Beispiele und Ideen zur Umsetzung von SDG 3 in Bibliotheken werden entwickelt, um sowohl die Gesundheitskompetenz als auch das Wohlergehen der Nutzenden zu verbessern. Da der Zusammenhang von Armut und Gesundheit durch Studien belegt werden kann, können hier Angebote zur Verbesserung der Lebensqualität und zu mehr Chancengleichheit beitragen. Mit der Umsetzung von Gesundheit und Wohlergehen in Bibliotheken werden die Grundrechte Zugang zu Informationen, Bildung und Teilhabe erfüllt.
Die vorliegende Arbeit befasst sich mit der hundgestützten Leseförderung als Teilbereich der Bibliothekspädagogik. Diese wird als einer der Schwerpunkte behandelt, die Themen Leseförderung im bibliothekarischen Kontext und tiergestützte Intervention werden grob skizziert. Die positive Wirkung von Tieren auf Menschen ist belegt und spiegelt sich auch in der hundgestützten Leseförderung wieder. Wünschenswert dazu wären größer angelegte Studien, die eine höhere Überzeugungskraft haben. Denn trotz der positiven Erkenntnisse, ist dieses Format noch immer eine Seltenheit in der deutschen
Bibliothekslandschaft. Anders sieht es in den USA aus, ein Praxisbeispiel ermöglicht einen Einblick. Ein bibliothekspädagogisches Konzept zu einer hundgestützten Leseförderung wird erarbeitet und soll als Vorlage dienen. Außerdem wird der Begriff Bibliothekspädagogik definiert und kritisch hinterfragt. Ebenso der heterogene Umgang mit dieser. Die Arbeit kommt zu dem Schluss, dass die Bibliothekspädagogik über großes Potential für die Weiterentwicklung von Bibliotheken verfügt, diese aber zunächst ein homogenes Leitbild erstellen müssen. Außerdem sind bibliothekspädagogische Angebote ideale Ergänzungen zu dem schulischen Angebot. Bibliothekspädagogik ermöglicht, dass das Lernen aus dem leistungsorientierten schulischen Kontext herausgelöst wird. Dabei entstehen beispielsweise Angebote wie die hundgestützte Leseförderung, die Lernen mit Spaß verbindet und deswegen so erfolgreich ist.
Öffentliche Bibliotheken entwickeln sich bereits seit einigen Jahren von einer ehemaligen Bestandsfokussierung in Richtung einer Dienstleistungsfokussierung. Ein Teilaspekt dieser Neuausrichtung ist das Veranstaltungsangebot einer Öffentlichen Bibliothek. Diese Ausarbeitung beschäftigt sich mit der Konzipierung und Durchführung einer Pen-&-Paper-Rollenspielveranstaltung in einer Öffentlichen Bibliothek. Pen-&-Paper-Rollenspiele existieren seit den frühen 1970er Jahren und sind eine Mischung aus Gesellschaftsspiel sowie Improvisationstheater. Zur Konzeption einer solchen Veranstaltung wurden Pen-&-Paper-Rollenspiele erst in den konstruktivistischen-didaktischen Kontext gesetzt und anschließend in das „Four spaces of the public library“-Modell überführt. Daraufhin wurde die Veranstaltung unter Berücksichtigung dieser und anderer Elemente konzipiert sowie erfolgreich durchgeführt. Die Auswertung der Veranstaltung und das Feedback der Teilnehmer und Teilnehmerinnen zeigen auf, dass Pen-&-Paper-Rollenspielveranstaltungen eine ideale Erweiterung des Veranstaltungsangebots einer Öffentlichen Bibliothek darstellen, das Potenzial zum Zeitpunkt dieser Ausarbeitung jedoch nur von wenigen Einrichtungen in Deutschland genutzt wird.
Ziel der vorliegenden Arbeit ist die Generierung einer möglichst vollständigen Sammlung von Metadaten, referenzierend auf Dissertationsschriften, die dem erweiterten Themenspektrum der Informationswissenschaft entsprechen. Hierzu stellen sich die folgenden Fragen: Welche Disziplinen können als relevant für das erweiterte Themenspektrum der Informationswissenschaft betrachtet werden? Existiert eine Vollständige Übersicht über die Landschaft der deutschen Hochschulschriftenserver? Wie muss das System aufgebaut werden um die Metadaten, die auf Dissertationsschriften referenzieren, zu beziehen, zu selektieren und zu homogenisieren? Um diese Fragen zu beantworten wird erarbeitet, aus welchen Disziplinen sich das erweiterte informationswissenschaftliche Themengebiet zusammensetzt. Ebenso wird eine Vollständige Liste aller deutschen Hochschulen und der identifizierten Hochschulschriftenserver angefertigt. Diese erarbeiteten Hochschulschriftenserver werden mittels eines Softwareentwurfs über das Open Archives Initiative Protocol for Metadata Harvesting abgefragt. Die erhaltenen Metadaten werden homogenisiert abgelegt. Weiter findet eine Schlagwortsuche nach programmatisch erstellten Schlagworten innerhalb der Disziplinen statt, die der Informationswissenschaft als nahestehend ermittelt wurden. Aus der Aufgabenstellung resultierend ergab sich, dass die Methoden und Erkenntnisse der Informatik und der Bibliothekswissenschaft als relevant für das erweiterte Themenspektrum der Informationswissenschaft betrachtet werden können. Durch den Harvesting Prozess konnten zwei Sammlungen von Metadatensätzen erstellt werden. Eine Sammlung umfasst 378 Metadatensätze, die ausschließlich Dissertationen aus den Bibliotheks- und Informationswissenschaften beinhalten und eine weitere Sammlung besteht aus 3.698 Metadatensätzen, die dem erweiterten Themenspektrum der Informationswissenschaft entsprechen.
Wissenschaft basiert auf Glaubwürdigkeit, die durch die Regeln guter wissenschaftlicher Praxis und Qualitätskontrollen gesichert wird. Predatory Publisher haben sich die Open Science Kultur zu Nutze gemacht, um daraus Profit zu schlagen, indem sie wissenschaftliche Standards vortäuschen. In der folgenden Ausarbeitung werden drei Predatory Publishing Verlage exemplarisch untersucht, um herauszufinden, wie groß der Anteil der Geistes- und Sozialwissenschaften am Predatory Publishing Markt ist. Die Auswertung der Analyse zeigt auf, dass der Anteil dieser Fachdisziplinen gering ist. Dies ist auf die vorherrschenden Publikationskulturen zurückzuführen, da besonders in den Geisteswissenschaften längere Publikationen wie Monographien eine wichtige Rolle spielen und Predatory Publisher größtenteils Zeitschriften publizieren. Darüber hinaus wird betrachtet, was dies für Bibliotheken und die Aufklärungsarbeit, die sie hinsichtlich des Phänomens des Predatory Publishing bereits leisten, bedeutet. Es hat sich gezeigt, dass eine Ergänzung der bestehenden Angebote um fachspezifische Beratung, aber auch um fächerübergreifende Maßnahmen, einen Mehrwert für die WissenschaftlerInnen darstellen würde.
Wissenschaftliche Pressekonferenzen sind eine wertvolle Informationsquelle. Sie bestehen aus abwechselnden Reden von Expert:innen und Antworten auf Fragen aus dem Publikum und können daher zu einer faktenbasierten Berichterstattung beitragen. Obgleich Pressekonferenzen eine hohe Informationsdichte besitzen, ist das Extrahieren von relevanten Statements schwierig und zeitintensiv. Um diese Arbeit zu unterstützen, wird ein System vorgeschlagen, das automatisiert Statements aus Pressekonferenzen extrahiert. Claims, also Behauptungen über Sachverhalte, werden als zentrales Element eines Statements identifiziert und dienen als wichtigstes Feature, um Statements in Transkripten von Pressekonferenzen zu identifizieren. Hierzu wird ein zweistufiger Prozess vorgeschlagen.
Zunächst werden mithilfe einer Single Label Multi-Class Sequenzklassifikation Sätze identifiziert, welche ein Claim enthalten. Anschließend werden die Sätze weiterverarbeitet, um irrelevante Sätze und solche mit anaphorischen Verbindungen herauszufiltern oder die Länge der Statements zu beeinflussen. Die Ergebnisse lassen vermuten, dass das Identifizieren von Claims erfolgreich eingesetzt werden kann, um Statements in Pressekonferenzen zu finden. Obwohl viele Statements mit diesem automatisierten System extrahiert werden können, sind die extrahierten Sätze nicht immer schlüssig genug, um ohne weiteren Kontext verstanden zu werden und benötigen weitere Begutachtung durch fachkundige Personen.
Informationssuchende werden durch die zunehmende Informationsfülle und Menge an Webseiten im Internet immer abhängiger von Suchmaschinen. Während der Bias der Ausgaben dieser Suchmaschinen schon länger im Fokus der Forschung steht, gilt dies nicht für die Suchvorschläge. Diese werden den Suchenden zur Erweiterung oder Spezifizierung ihrer Suchen vorgeschlagen. An der Information Retrieval Research Group der TH Köln wird der Einfluss von Suchvorschlägen auf die politische Meinungsbildung untersucht. Für die Untersuchung dieser Suchvorschläge werden diese in dieser Bachelorbeit thematisch mit Daten aus dem sozialen Netzwerk Twitter in den Vormonaten der Bundestagswahl 2017 verglichen. Hierbei werden verschiedene Einflussfaktoren auf die Übereinstimmung der Themen und den Zeitversatz innerhalb der Zeitreihen der Suchvorschläge und der Themen aus Twitter untersucht. Es wird festgestellt, dass Suchvorschläge zu Personen der Parteien AFD und DIE LINKE deutlich abhängiger von den Diskussionen und dominierenden Themen auf Twitter sind. Themen auf Twitter tauchen zu Personen der AFD schneller und zu Personen der AFD und DIE LINKE stärker in den Suchvorschlägen auf als zu Personen anderer Parteien. Hierbei können jedoch nur sehr schwache systematische Unterschiede abhängig von der Kategorie der Themen festgestellt werden.
Wissenschaftliche Integrität und gute wissenschaftliche Praxis sind die Eckpfeiler vertrauenswürdiger Forschung. Die Deutsche Forschungsgemeinschaft (DFG) hat 2019 Leitlinien zur Sicherung guter wissenschaftlicher Praxis herausgegeben, die von Hochschulen und Forschungseinrichtungen bis zum Juli 2022 umgesetzt werden müssen, wenn sie weiterhin Drittmittel aus den Töpfen der erhalten wollen. Ziel der Arbeit ist es, die Umsetzung des DFG-Kodex an Universitäten und Forschungseinrichtungen zu untersuchen. Vor dem Hintergrund, dass die wissenschaftliche Integrität und das Vertrauen der Öffentlichkeit in die Wissenschaft durch Veröffentlichungen in sogenannten Raubzeitschriften gefährdet ist, wurden relevante Leitlinien ausgewählt. Mit einer qualitativen Inhaltanalyse wurde die Frage beantwortet, wie die den Publikationsprozess betreffenden Leitlinien an ausgewählten Universitäten und Forschungseinrichtungen umsetzten.
Dabei zeigte sich, dass nur etwa die Hälfte der Einrichtungen diese Leitlinien in ihren eigenen Papieren zur guten wissenschaftlichen Praxis umsetzte.
Der Vermittlung politischer Bildung kommt vor dem Hintergrund einer wachsenden Demokratiefeindlichkeit eine bleibende Bedeutung zu. In unterschiedlichen Kontexten werden Menschen mit politischen Inhalten konfrontiert, zu denen sie sich verhalten müssen. Politische Bildung geschieht einerseits im Auftrag des Staates. Andererseits sind es eine Vielzahl von zivilgesellschaftlichen Akteuren, die sie ihr widmen. Ihr Ziel, urteilsfähige und handlungsbereite Bürgerinnen und Bürger hervorzubringen, ist auch und besonders an öffentlichen Bibliotheken zentrales Anliegen. Die Arbeit gibt einen Überblick über Theorie- und Bezugsfelder der politischen Bildung. Sie identifiziert und problematisiert unterschiedliche didaktische Ansätze und deren Bezüge zu bibliotheksethischen und -pädagogischen Positionen. Diese werden in Zusammenhang mit dem „Four Spaces“-Modell für öffentliche Bibliotheken gebracht, das als Mittel dafür dienen kann, politische Bildung an Bibliotheken zu verwirklichen. Zentral sind die ideellen Aspekte, denen sich das „Four Spaces“-Modell mit seinen vier Räumen verschreibt, die in ihrer Bedeutung entfaltet werden. Einer konkreten, institutionengebundenen Konzeption politischer Bildung kann das als theoretischer Rahmen dienen.
Die vorliegende Bachelorarbeit beschäftigt sich mit einer möglichen Einführung eines neuen europäischen Zahlungssystems in Deutschland durch die European Payments Initiative (EPI). Ermittelt werden die Erfolgschancen bei einer Realisierung des Vorhabens unter Betrachtung von Marktinformationen und Geschäftsmodellen ausgewählter Anbieter. Ausgewählt wurden die Kartenorganisationen wie Mastercard und Visa und der E-Wallet-Anbieter PayPal. Die Beurteilung für den Erfolg ergibt sich durch eine Analyse eines erweiterten Business Model Canvas, des sogenannten iBusiness Model Canvas. So werden bei einer schematischen Aufschlüsslung der Geschäftsmodelle mitunter auch strategische Variablen und ökonomische Besonderheiten bei Informationsgütern kenntlich gemacht. Gesamtheitlich erschließen sich so aus der Arbeit unterschiedliche Erkenntnisse auch für möglicherweise zukünftige ähnliche Vorhaben. Zentral konnten durch die Analyse Schwächen im Wertangebot und im Kosten-Nutzen-Verhältnis der EPI aufgedeckt werden. So ist davon auszugehen, dass ein Erfolg möglich, aber nur über einen langen Zeitraum mit einem erweiterten Angebot oder starken Werbemaßnahmen denkbar ist.
Machine Learning (ML) Prozesse finden seit einigen Jahren immer größere Bedeutung in der Sportindustrie. Sie helfen die Leistungen der Spieler auf dem Feld besser zu analysieren und sorgen für ein tieferes Verständnis in verschiedenen Bereiche im Sport. Die Voraussage eines potenziellen Siegers schon vor Beginn einer Partie begeistert die Industrie und Fans wie die Wissenschaft gleichermaßen. In den letzten Jahren kam es dabei immer wieder zu guten Resultaten in der Prognose von Ergebnissen durch Data Mining Ansätze und ML Algorithmen. Diese Prognosen basieren auf verschiedenen Faktoren, wie historische Spieldaten, Ort des Ereignisses oder Form einer Mannschaft. Diese Arbeit widmet sich dem kritischen Versuch mithilfe der Anwendung verschiedener ML Verfahren und Algorithmen die reguläre Saison der Major League Baseball 2020, auf Basis von Spieldaten vorheriger Saisons, vorherzusagen.
Es ist wichtig, die durch die Covid-19-Pandemie gewonnenen Erkenntnisse für den Betrieb öffentlicher Bibliotheken festzuhalten, um in vergleichbaren Krisensituationen auf diese zurückgreifen zu können. Dafür wird in dieser Arbeit ein Überblick über das Vor-gehen sechs verschiedener Bibliotheken, die als Best-Practice Beispiel dienen, gegeben. Auf diesem aufbauend werden Handlungsempfehlungen für vergleichbare Situationen abgeleitet. Diese Empfehlungen umfassen hauptsächlich die Einhaltung der allgemeinen Hygienevorschriften des Bundeslandes und der Regierung, die Einrichtung eines Abholservice für Medien und den Ausbau der Onlinepräsenz. Diese Empfehlungen können als Grundlage für zukünftige Kontingenzplänen und als aktuelle Anregungen dienen.
Die Arbeit untersucht die Rolle der Fachinformationsdienste im Forschungsdatenmanagement sowie die Bedeutung des Forschungsdatenmanagements für die Fachinformationsdienste. Ein besonderer Fokus liegt auf der Frage, inwieweit die Fachinformationsdienste mit der Nationalen Forschungsdateninfrastruktur (NFDI) zusammenarbeiten und ob die Aufgaben der Fachinformationsdienste sich seit der Einführung der NFDI verändert haben.
In dieser empirischen Bachelorarbeit der TH Köln im Studiengang Online Redaktion wird sich mit dem Nachrichtenrezeptionsverhalten von 18-24 jährigen Menschen auf Instagram beschäftigt. Als Beispiel wird der Account der Tagesschau auf Instagram zu Rate gezogen. Ziel der Arbeit ist es neue Rezeptionsweisen und Nutzungsmotive herauszufinden. Zunächst wurden dafür theoretische Überlegungen zu den Themen Nachrichtenforschung, verändertes Nutzungsverhalten durch soziale Plattformen und Journalismus auf Instagram in Verbindung zueinander gesetzt. Als Kern der Arbeit wird die Forschung in Form 10 Leitfadeninterviews ausgewertet. Dies geschieht entlang der Kategorien allgemeine Nutzung, Nutzungsmotiven, der Wahrnehmung einzelner Inhalte, den Formen der Anschlusskommunikation und der Markenwahrnehmung der Tagesschau. Daraus wurden schlussendlich drei verschiedene Instagram-Nachrichtennutzungstypen gebildet.
In dieser Arbeit werden Einflussfaktoren auf das Medienvertrauen der deutschen Bevölkerung dargestellt, um Chancen und Lösungsansätze für Medienhäuser und Journalisten zu nennen, um das Medienvertrauen der Bevölkerung zu steigern. Die Fragestellung der Arbeit lautet: Welche Bevölkerungsgruppen vertrauen den Medien aus welchen Gründen nicht und welche Herausforderungen und Chancen bieten sich daraus den Medienhäusern?
Zur Beantwortung der Fragestellung wurde eine Literaturrecherche durchgeführt, um Erkenntnisse zu sammeln und Chancen für Medienhäuser und Journalisten herauszuarbeiten.
Es konnten vier Lösungsansätze gefunden werden, zu denen Ideen oder praktische Beispiele genannt werden, die bereits von Medienhäusern und Initiativen umgesetzt werden und dadurch auf bestimmte Bedürfnisse der Bevölkerung eingehen.
Die Signifikanz von künstlicher Intelligenz (KI) steigt mit technologischem Fortschritt zunehmend und verändert die Relevanz von KI in der Gesellschaft. Schon im privaten Umfeld wird auf künstliche Intelligenzen, wie Siri, Alexa oder Navigationssysteme, welche in Echtzeit die schnellsten Routen ausrechnen, zurückgegriffen. Auch in der Medizin zeigt sich, dass Systeme künstlicher Intelligenz neue Möglichkeiten in der Diagnose und Therapie bieten können.
Das Ziel der vorliegenden Arbeit ist es, zu beantworten, wo die Chancen und Grenzen künstlicher Intelligenz in der Medizin liegen. Dabei dienen die Diagnose und Therapie in der Onkologie als Beispiel. Um die Forschungsfrage zu beantworten, wird ein theoretisches Verfahren angewandt. Es werden wissenschaftliche Theorien und Studien, in welchen das Potential von KI dargelegt wurde, sowie medizinische Fachartikel zur Analyse und Beantwortung der Frage zu beantworten.
Es zeigt sich, dass künstliche Intelligenz eine Bereicherung für die Medizin sein kann und den Arzt in seiner Arbeit unterstützt. So können dem Arzt monotone Arbeiten abgenommen werden, wodurch ihm mehr Zeit für nicht durch KI ausführbare Tätigkeiten wie z.B. Patientengespräche bleibt. Jedoch müssen die Systeme weiterhin trainiert werden, um auf alle Patientengruppen angewandt werden zu können. Zudem sind viele Ergebnisse der Systeme durch die Komplexität nicht nachvollziehbar für den Menschen.
So bedarf es Qualitätsstandards, um das Patientenwohl zu erhalten und Arzt sowie Patient Sicherheit zu geben. Auch müssen ethische Aspekte festgehalten werden, um die KI und ihre Entscheidungen in der gesellschaftlichen Moral einzubringen und auch, um aus rechtlicher Sicht Entscheidungen, die von einem System getroffen werden, strafbar zu machen.