Refine
Year of publication
Document Type
- Master's Thesis (125) (remove)
Has Fulltext
- no (125) (remove)
Keywords
- Digitalisierung (7)
- Informationskompetenz (5)
- Wissenschaftliche Bibliothek (5)
- Social Media (4)
- Öffentliche Bibliothek (4)
- E-Learning (3)
- Elektronische Medien (3)
- Medienkompetenz (3)
- Nachhaltigkeit (3)
- Open Access (3)
Das Hochschulwesen und die Studienlandschaft in Deutschland haben sich in den letzten Jahren verändert, neue Zielgruppen mit neuen Informationsbedürfnissen sind entstanden. Wissenschaftliche Bibliotheken in ihrer Funktion als Informationsdienstleister reagieren auf diese Veränderungen und müssen ihre Informationsangebote und -services neuen Bedarfen anpassen.
Duale Studenten sind eine in den letzten Jahren rasant gewachsene neue Zielgruppe auf dem deutschen Hochschulmarkt. Sie absolvieren ein Studium, dessen zentrale Kennzeichen die enge Verzahnung von wissenschaftlicher Lehre an der Hochschule und praxisorientierter Ausbildung in einem Unternehmen sind. Ein duales Studium findet an zwei verschiedenen Ausbildungsorten statt, der Hochschule und dem Unternehmen. Wissenschaftliche Bibliotheken in ihrer Funktion als Informationsdienstleister stehen demnach vor der Aufgabe, Studenten dieser spezifischen Studienform bedarfsgerecht an beiden Studienorten mit Fachinformationen zu versorgen.
Vorliegende Arbeit setzt sich zum Ziel, die Informationsbedarfe dualer Studenten durch eine Informationsbedarfsanalyse zu ermitteln, um die bibliothekarischen Dienstleistungen der Bibliotheken passgenauer und besser auf die Bedürfnisse dieser spezifischen Zielgruppe ausrichten zu können. Im Mittelpunkt stehen dabei gleichermaßen das Medienangebot und Portfolio verschiedener Informationsdienstleistungen wie auch die optimale Gestaltung der Zugänglichkeit zu diesen. Am Beispiel der Dualen Hochschule Baden-Württemberg (DHBW), einem der größten Anbieter dualer Studiengänge in Deutschland, wurden Lehrende und Studenten in zwei standardisierten anonymisierten Online-Umfragen zu Informationsbedarfen im dualen Studium befragt.
Das Thema Marketing hat in den vergangenen Jahren verstärkt auch in Bibliothekseinrichtungen Einzug gehalten. Marketing-Management-Prozesse werden eingesetzt, um die Angebote und Dienstleistungen auf den Kunden auszurichten und die angebotenen Services entsprechend zu vermarkten. Die vorliegende Arbeit analysiert die Dienstleistungen der Bibliotheken der KPMG AG unter Aspekten des theoretischen und praktischen Informationsmarketings. Der theoretische Teil der Arbeit erläutert die einzelnen Phasen eines Marketing-Management-Prozesses, wobei Beispiele auf ihre Anwendbarkeit im Bibliothekswesen gegeben werden. Im praktischen Teil der Arbeit wird der Marketing-Management-Prozess auf die Gegebenheiten der Bibliotheken der KPMG AG und deren Dienstleistungen angewandt. Als Ergebnis aus der Analyse und der Bearbeitung der einzelnen Prozessphasen werden Maßnahmen genannt, die notwendig sind, um die Dienstleistungen der KPMG-Bibliotheken optimal gestalten und auf den Kunden ausrichten zu können.
Diese Masterarbeit vergleicht vier verschiedene Persistent Identifier Systeme (PI-Systeme) auf Grundlage von Kriterien systematisch miteinander. Dabei werden der Uniform Resource Name (URN) im Namensraum urn:nbn:de, das Handle-System, der Digital Object Identifier (DOI) und Archival Resource Key (ARK) für den Vergleich herangezogen. Persistent Identifier (PI) stehen im Gegensatz zu URLs speicherortunabhängig zur Verfügung und können somit dauerhaften Zugang zu digitalen Objekten gewährleisten, sodass diese nachhaltig zitierfähig sind. Als Grundlage für die Untersuchung wird der in der DIN 31646 enthaltene Kriterienkatalog verwendet. Dieser wurde mit dem Fokus auf die Langzeitarchivierung von Dokumenten erstellt. In diesem Zusammenhang sind einzelne Aspekte des Kataloges nicht oder nur sinngemäß auf einige der PI-Systeme anwendbar. Darüber hinaus ist die Funktionsweise von Resolver-Diensten von PI-Systemen ein zentraler Gesichtspunkt des Kriterienkataloges. Auf das ARK-System sind die diese Dienste betreffenden Merkmale nicht oder nur analog anwendbar, da es nicht auf dem Resolver-Prinzip beruht. Trotz dieser Einschränkungen kann ein umfassender Vergleich erfolgen. Im Wesentlichen sind alle vier PI-Systeme ausgereifte Methoden, um digitale Ressourcen dauerhaft nachzuweisen. Die zentralen Unterschiede ergeben sich vor allen Dingen aus den Zielsetzungen der PI-Systeme selbst. Bei der URN steht die Langzeitarchivierung der Ressourcen im Vordergrund. Damit erfüllt sie sie meisten Kriterien des Kataloges. Die drei anderen Systeme sind weniger auf eine Langzeitarchivierung der Objekte angelegt, als vielmehr auf einen dauerhaften Nachweis über festgeschriebene Metadatenschemen, die die PIs zitierfähig halten, selbst wenn das Objekt an sich nicht mehr existiert. Ferner gibt es Unterschiede in der technischen Umsetzung der PI-Systeme. Das Handle-System ist ein eigens entwickeltes System, worauf auch die DOI basiert. URN und ARK fußen auf der Nutzung des Domain-Name-Systems (DNS) und bauen auf ihr auf. Überdies unterscheiden sie sich in ihren Finanzierungsmodellen, wobei URN und ARK kostenfrei zur Verfügung stehen, dagegen die Nutzung von DOI und Handle mit Gebühren verbunden ist.
Die Wiederauffindung von Personen und deren Werke im Bereich der Naturwissenschaften durch Suchmaschinen, Repositorien, Internetplattformen und Bibliothekskataloge gestaltet sich für Naturwissenschaftler und Bibliotheken oft mühselig und zeitaufwendig. Als eine Ursache dafür wird die Verkürzung der Vornamen zu Initialen in Literaturangaben, Datensammlungen, Bibliothekskatalogen und sonstigen Autorenlisten angesehen, wie diese Arbeit anhand einer Erhebung im Fachpublikum nachweist. Die von Bibliotheken durchgeführten Individualisierungen, die auf den Functional Requirements for Authority Data (FRAD) beruhen, sollen diese Ursache beseitigen. Ob dieser Ansatz tatsächlich auch den Anforderungen von Naturwissenschaftlern an Personennamendatensätzen in Personennamendatenbanken entspricht, wird ebenfalls anhand der Interviewergebnisse erörtert. Als Ergebnis wird festgestellt, dass die Anforderungen der Naturwissenschaftler durch eine strenge Auslegung der Empfehlungen der FRAD weitgehend erfüllt sind. Jedoch sollten sie auch auf die Erfassung unselbstständiger Werke angewendet werden.
Das Goethe-Museum in Düsseldorf wurde 1953 auf Basis der privaten Goethe-Sammlung des Verlegers und Inhabers des Insel Verlags in Leipzig, Anton Kippenberg (1874-1950), gegründet. Die Entstehung dieser größten in privater Hand befindlichen Goethe-Sammlung aus Originalzeugnissen der Goethezeit wird durch eine Sondersammlung aus der ersten Hälfte des 20. Jahrhunderts dokumentiert, die seit vielen Jahren zum Bestand des Goethe-Museums gehört. Im Zuge einer Neuordnung wurde diese nicht erschlossene Sondersammlung als Teilsammlung in die wissenschaftliche Spezialbibliothek des Goethe-Museums eingegliedert. Die Arbeit zeichnet die Aufarbeitung dieser Sondersammlung nach. Nach der Bestandsaufnahme, einer Neuordnung und Beschreibung der in ihr enthaltenen Materialien folgt eine Analyse anhand einzelner Kriterien. Vorgestellt wird anschließend das Portal, mit dem die Sondersammlung erschlossen und sichtbar gemacht werden soll. Im letzten Kapitel wird beschrieben, welche Bedeutung die Sondersammlung für das Goethe-Museum hat, welcher Erkenntniswert heute daraus gezogen werden kann und welche Perspektiven sich durch die Nutzung ergeben.
Text Mining bietet die Möglichkeit, große Textmengen durch automatisierte Verfahren zu analysieren. Die vorliegende Arbeit beschäftigt sich mit der Anwendung und Evaluation solcher Methoden für die spezielle Textform freier Antworten aus Mitarbeiterbefragungen. Dabei werden verschiedene Techniken aus den drei Bereichen Phrasenextraktion, Sentimentanalyse und Kategorisierung dargestellt und an einer konkreten Umfrage angewendet. Die Ergebnisse werden jeweils durch Abgleich mit manuellen Ergebnissen bzw. durch manuelle Bewertungen evaluiert und die Resultate untereinander verglichen. Die genutzten Verfahren sollten ohne spezifische Trainingsdaten oder Projektinformationen anwendbar sein und sich somit auch für andere Mitarbeiterbefragungen eignen.
Die Phrasenextraktion wird auf drei verschiedene Weisen durchgeführt, wobei Part-of-Speech (POS)-Chunking, Stoppwortbegrenzung und Kookkurrenzen genutzt werden. Die Untersuchungen zeigen, dass mit dem POS-Chunking präziser die relevantesten Phrasen aus längeren Texten ermittelt werden können. Die Methode der Stoppwortbegrenzung extrahiert dagegen eine größere Vielfalt relevanter Phrasen auch aus kürzeren Texten. Manuelle Einschätzungen der Extraktionsergebnisse bewerten die Methode mit POS-Chunking am besten. Darüber hinaus wird eine automatisierte Zusammenfassung semantisch ähnlicher Phrasen durchgeführt, wodurch sich leichte Verbesserungen einiger Evaluationsergebnisse zeigten.
Für die Sentimentanalyse der freien Antworten wird eine Erweiterung eines bestehenden Verfahrens aus dem Social Media-Bereich dargestellt. Hierzu werden der Methode vier Regeln hinzugefügt, welche die Sentimentbewertung aufgrund bestimmter Syntaxformen in den freien Antworten verändern. Die Evaluation zeigt, dass drei der vier Regeln dazu beitragen, dass sich die automatisierte Bewertung manuellen Bewertungen annähert.
Die Kategorisierung wird durch die beiden Topic Modeling-Methoden Latent Dirichlet Allocation (LDA) und Non-negative Matrix Factorization (NMF) durchgeführt. NMF erreichte bei dem Abgleich mit einer manuellen Kategorisierung höhere Übereinstimmungen und zeichnete sich auch durch eine bessere Abgrenzung der Thematiken sowie eine bessere Interpretierbarkeit aus.
Die Text Mining-Methoden und deren Evaluationen werden für diese Arbeit in der Programmiersprache Python umgesetzt. Außerdem werden die Text Mining-Resultate in die Datenvisualisierungssoftware Tableau eingebunden.
In der vorliegenden Arbeit wird ein Einblick in Eignung und Unterschiede verschiedener Text Mining-Methoden in Bezug auf freie Antworten in Mitarbeiterbefragungen gegeben. Darüber hinaus wird dargestellt, dass auch spezifische Anpassungen an diese Textform möglich sind. Zusätzlich werden diverse Optimierungsansätze aufgezeigt, die den noch großen Weiterentwicklungsbedarf in diesem Bereich verdeutlichen.
Aufbau einer deutschsprachigen Community für das Bibliotheksmanagementsystem FOLIO : ein Konzept
(2017)
Seit dem Jahr 2016 evaluieren das Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) und die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG/GBV) in einem gemeinsamen Projekt das Open-Source-System FOLIO. Das Ziel ist, qualifizierte Aussagen zur funktionalen und technischen Eignung von FOLIO für den deutschsprachigen Raum zu treffen. Die Kommunikation sowie Wissensvermittlung während der Entwicklung und der Tests von FOLIO erfolgt, wie in Open-Source-Systemen üblich, primär über die Community des Systems. Allerdings ist die FOLIO-Community aus den USA für die deutschen Interessen meist nicht der adäquate Ansprechpartner, da sich die Bedürfnisse der deutschen Bibliotheken von denen in den USA unterscheiden und nur einen kleinen Teil der großen Gemeinschaft betreffen. Die Entwicklung einer FOLIO-Community für den deutschsprachigen Raum bietet Bibliotheken, die FOLIO zukünftig einsetzen werden, einen Ort, um ihre Bedürfnisse, Anliegen und Probleme zu diskutieren. Aus diesem Grund stellt die Arbeit in und mit einer eigens für Deutschland eingerichteten FOLIO-Community einen wesentlichen Aspekt im FOLIO-Entwicklungsprojekt von hbz und VZG des Projekts dar.
Ziel der vorliegenden Arbeit ist, Rahmenbedingungen sowie Faktoren für einen erfolg-reichen Aufbau und einer dauerhaften Etablierung der deutschsprachigen FOLIO-Community zu identifizieren und zu eruieren, welche Tools benötigt werden, um die Community für die Nutzer attraktiv und bedienungsfreundlich zu gestalten. Hierzu werden bereits vorhandene Communitys im Bereich des Bibliothekswesens, ausgehend von den Handlungsempfehlungen von Amy Jo Kim, Sandra Schaffert sowie Diana Wieden-Bischof, verglichen. Als Referenzmodelle dienen die Communitys des Open Source-Systems Koha, die Kuali OLE-Community sowie die FOLIO-Community aus den USA. Durch den Vergleich werden die Unterschiede sowie die Gemeinsamkeiten der einzelnen Communitys herausgearbeitet, um die gesammelten Erkenntnisse in die Konzeptentwicklung für eine deutschsprachige FOLIO-Community einfließen zu lassen.
Die Gewöhnung der Internetnutzer an den einzelnen Suchschlitz bei Google stellt Bibliotheken vor eine neue Herausforderung. Ihre Recherchewerkzeuge sind vergleichsweise kompliziert aufgebaut und für die jüngeren Internetnutzer zunehmend unattraktiv in ihrer Anwendung. Die Lösung scheint in Discovery-Systemen zu liegen, nicht nur aufgrund größerer inhaltlicher Angebote, sondern auch hinsichtlich ihrer Anwendung mit nur einem Suchschlitz. Die Bayerische Staatsbibliothek (BSB) stellt eine Teillösung bereit. Ihr Discovery-System Primo Central der Firma ExLibris bietet die Suche sowohl über mehrere Suchparameter als auch über einen Suchschlitz an. Die Suchergebnisse präsentiert es in drei Reitern, zusätzlich verfügt es über die Möglichkeit zu selektieren. Ziel der folgenden Arbeit ist die Prüfung der Usability des Discovery-Systems der Bay-erischen Staatsbibliothek anhand von zwei Tests, der Heuristischen Evaluation und des nutzerorientierten Usability-Tests sowie die Zusammenführung der daraus entstehenden Erkenntnisse. Es kristallisiert sich heraus, dass die neue Form der Suche in vielen Teilen attraktiv ist, jedoch Mängel hinsichtlich der Benutzerfreundlichkeit offensichtlich sind. Das im Pilotbetrieb an der BSB gestartete System Yewno Discover ist ebenfalls Bestandteil der Usability-Prüfung und zeigt sich als sinnvolle Ergänzung der aktuellen Suchsysteme.
Die Technische Hochschule Köln betreibt derzeit drei Repositorien. Die inhaltliche Verwaltung
von Cologne Open Science und ePublications wird von der Hochschulbibliothek
vorgenommen; PubLIS Cologne hingegen vom Institut für Informationswissenschaft.
COS wurde mit dem DINI-Zertifikat 2013 ausgezeichnet. Doch das aktuellere DINI-Zertifikat
aus dem Jahre 2016 stellt neue Mindestanforderungen an Repositorien. Diese Arbeit
untersucht, welche Veränderungen an den Repositorien vorgenommen werden
müssten, um das aktuelle DINI-Zertifikat 2016 zu erhalten und gibt weitere Empfehlungen,
wie die TH Köln ihre Repositorien zukunftsweisend ausbauen sollte.
Achtsamkeit ist weitaus mehr als ein kurzweiliges Trendmomentum der heutigen Zeit. Die über 2000 Jahre alte buddhistische Tradition ist in den 1950er-Jahren in Form von Meditationstechniken in die westliche Welt eingezogen und gewinnt seither stetig an Relevanz. In Großbritannien ist Achtsamkeit ein Pflichtfach an Schulen und wird ab der Grundschule unterrichtet. Deutsche Schulen ziehen mit vereinzelten Pilotprojekten nach, die wissenschaftlich begleitet werden und erste positive Entwicklungen feststellen. Praktizierte Achtsamkeit hilft Menschen dabei, sich selbst zu finden und mit der Informationsdichte der heutigen Zeit umzugehen. Das Ziel dieser Masterarbeit ist es zu bestimmen, welchen Einfluss achtsamkeitsbasierte meditative Einheiten auf die bewusste Wahrnehmung des gegenwärtigen Moments bei 20- bis 30 Jährigen im digitalen Zeitalter haben. Anhand einer quantitativen Vorher-Nachher-Untersuchung wird analysiert, inwiefern ein zehntägiges achtsamkeitsbasiertes Interventionsprogramm das Bewusstsein für den gegenwärtigen Moment und weitere Parameter wie die der Dankbarkeit beeinflussen kann. Im Anschluss wird durch qualitative Interviews ergründet, wieso es zu den gemessenen Veränderungen im Laufe des Interventionsprogramms gekommen ist.
Der Mixed Methods Ansatz wird gewählt, um neben aufgestellten forschungsleitenden Unterfragen die folgend ausformulierte Hauptforschungsfrage FF1 zu beantworten: „Welchen Einfluss haben achtsamkeitsbasierte meditative Einheiten auf die bewusste Wahrnehmung des gegenwärtigen Moments bei 20- bis 30-jährigen im digitalen Zeitalter?“. Zentrale Ergebnisse dieser Arbeit sind, dass das Ausüben achtsamkeitsbasierter meditativer Einheiten messbaren Einfluss auf das Bewusstsein für den gegenwärtigen Moment sowie auf die Parameter der Achtsamkeit und Dankbarkeit haben.
Marken durchdringen die Öffentlichkeit, indem sie Personen, Organisationen, Dienstleistungen, Unternehmen und Produkte repräsentieren. Jede Marke verkörpert folglich ein Markenobjekt oder einen Markenabsender. Trotz der Vielzahl an Markenobjekten, setzt sich jede Marke aus den gleichen Komponenten zusammen: Eine formale Markierung in Form eines Namens oder eines Schriftzugs grenzt die Marke zu anderen Marken ab. Neben dieser Differenzierung besteht eine Marke vor allem aus der inhaltlichen Perspektive: Jeder Markenabsender sendet ein Selbstbild aus, das seine Identität verkörpert. Diese Inhalte und Informationen der Marke werden von den Markenrezipienten wahrgenommen und verarbeitet und auf Basis von Erfahrungen, Empfindungen und Voreinstellungen verarbeitet. Daraus entwickelt sich ein externes Bild der Marke, das Fremdbild oder Image. Aus diesem Zusammenspiel zwischen gesendetem Selbstbild und wahrgenommenem Fremdbild entwickelt sich der Wert einer Marke. Je mehr die interne und externe Perspektive dabei übereinstimmen, desto besser und stabiler ist der Markenwert zu beurteilen: Die Markeninhalte sind bei den Markenrezipienten verankert, werden von ihnen akzeptiert und vielleicht in der Öffentlichkeit vertreten.
Auf diese Weise entwickelt sich jede Marke. Zeitgleich gibt es relevante Unterschiede, die es in der jeweiligen Markenbewertung zu beachten gilt: Treten Unternehmen als Marken auf, dann sind es das Leitbild und die Unternehmensvision, die die Identität der Marke prägen. Als Markenabsender tritt die Gruppe hinter der Marke auf, also die Unternehmensvertreter wie Management und Mitarbeiter. Zudem ist der Markt relevant, auf dem die Marke auftritt. Im Business-to-Business-Geschäft überzeugen vor allem die Faktoren Risikoreduktion und Informationseffizienz einer Marke.
Diese theoretischen Grundlagen behandelt die Master-Thesis „Behind-the-brand. Welche Treiber bestimmen die externe Markenwahrnehmung? Eine Analyse vom Selbst- und Fremdbild eines B-to-B-Unternehmens.“ und sie setzt in Relation zu einer praxisorientierten Untersuchung: Der Markenwert eines B-to-B-Marken-Unternehmens im Spannungsfeld zwischen aufgestelltem Selbstbild und attestiertem Fremdbild aus Kundensicht. Zudem sollen relevante Faktoren aufgedeckt werden, die diesen Markenwert wiederum beeinflussen – ob stärken oder schwächen. Am Ende steht der Wert der Marke und des Unternehmens.
In den letzten Jahren haben immer mehr sprachbasierte User Interfaces (Voicebots) Einzug in den Kundenservice von Unternehmen gefunden. Der aktuelle Entwicklungsstand dieser Technologien ist zum jetzigen Zeitpunkt allerdings noch nicht weit genug ausgereift, um zu jeder Zeit eine stabile Systemperformance zu bieten. Insbesondere bei der Spracherkennung und -verarbeitung kommt es zurzeit noch vermehrt zu technischen Problemen, die zur Frustration der Kunden führen können und die es daher unbedingt zu vermeiden gilt. Die vorliegende Arbeit befasst sich mit der Fragestellung, wie trotz schlechter Usability ein möglichst positives Nutzererlebnis gewährleistet werden kann und untersucht den Einsatz von Humor als Frustrationsbewältigungsstrategie. Dazu wurde ein Wizard-of-Oz-Experiment mit fünfzehn Testpersonen durchgeführt, in dem eine für einen Kundenservice typische Unterhaltung zwischen einem Menschen und einem Voicebot simuliert wurde. Um den Einfluss des Humors auf das Nutzererlebnis der Testpersonen besser evaluieren zu können, wurden diese in zwei Gruppen eingeteilt.
Während mit der Kontrollgruppe das Experiment mit einem neutralen Voicebot durchgeführt wurde, sprach die Humorgruppe mit einem humorvoll gestalteten Voicebot. Im Anschluss an das Experiment wurden qualitative Interviews mit den Testpersonen zu ihrem wahrgenommenen Nutzererlebnis geführt. Die Interviews wurden im Nachgang mithilfe der Qualitativen Inhaltsanalyse nach Mayring ausgewertet. So wurden die gewonnenen Erkenntnisse aus den beiden Gruppen miteinander verglichen und evaluiert, inwieweit der Einsatz von Humor das Nutzererlebnis mit einem solch aufgabenorientierten Voicebot beeinflusst. Es zeigte sich, dass Humor im vorliegenden Anwendungskontext mit Vorsicht einzusetzen ist. Zwar kann Humor unter gewissen Voraussetzungen zur Verbesserung des Nutzererlebnisses beitragen, er kann jedoch auch eine zusätzliche Verschlechterung des Nutzererlebnisses zur Folge haben.
Heute gestalten Unternehmen aktiv die Erfahrungen ihrer Kunden über das Experience Management und begeistern ihre Kunden. Die Forschung hingegen benötigt noch die theoretische Grundlage in diesem Themengebiet. Insbesondere das Zusammenspiel von Brand Experience und Kundenbegeisterung wurde noch nicht empirisch untersucht. Um diese Forschungslücke zu schließen, wurde in der vorliegenden Arbeit ein zu testendes Modell aufgestellt, das den Zusammenhang von Brand Experience, Kundenbegeisterung und Kundenbindung (Wiederkaufsabsicht und Weiterempfehlungsbereitschaft) beschreibt. Um diese Wirkungskette empirisch testen zu können, wurde eine Online-Befragung durchgeführt. Für die Studie wurden zwei Sportartikelmarken ausgewählt: Nike und Jack Wolfskin. Insgesamt konnten 950 Personen befragt werden, darunter 700 Nike Käufer und 250 Jack Wolfskin Käufer. Die Ergebnisse der Studie zeigen, dass es einen Zusammenhang von Brand Experience, Kundenbegeisterung und Kundenbindung gibt. Brand Experience hat einen positiven Effekt auf die Kundenbegeisterung. Des Weiteren hat die Kundenbegeisterung einen positiven Effekt sowohl auf die Wiederkaufsabsicht als auch auf die Weiterempfehlungsbereitschaft. Außerdem ist der Effekt von der Brand Experience auf die Kundenbindung, mediiert durch die Kundenbegeisterung, positiv. Auf Grundlage der Ergebnisse werden Implikationen für die Forschung und das Management aufgezeigt.
Das Briefing ist eine Schlüsselstelle in jedem Marktforschungsprozess. Fehler oder Ungenauigkeiten, die hier verortet sind, können ein gesamtes Projekt irreversibel negativ beeinflussen. Dennoch ist insbesondere für Auftraggeber der Marktforschung nicht immer ersichtlich, wie sie den Briefingprozess zielführend gestalten können, konstruktiver Austausch wird mitunter durch Abhängigkeiten und Autoritätsgefälle gehemmt. Ziel dieser Arbeit ist es, den Briefingprozess für Marktforschungsprojekte zu untersuchen und genauer zu beschreiben. Auf diese Weise soll zwischen Auftraggeber und Auftragnehmer mehr Transparenz geschaffen und eine Basis für Selbsteinschätzung und Optimierung geboten werden. Leitende Fragen befassen sich dabei mit Form, Inhalten, Richtlinien, Vorgaben und Standards, sowie Problemquellen und Erfolgsfaktoren. In einer qualitativen Vorstudie wurde das Thema Briefing in teilstrukturierten Leitfadeninterviews exploriert und so Themenschwerpunkte und Hypothesen abgeleitet. Auf Basis dessen wurde eine Online-Umfrage durchgeführt. Teilnehmer waren in beiden Teilstudien betriebliche Marktforscher, Institutsmarktforscher und Marketer. Insgesamt unterstreichen die Ergebnisse die Relevanz eines durchdachten Briefings. Es wird deutlich, dass Form und Anzahl der Briefings sowie Richtlinien, Vorgaben und Standards für einen erfolgreichen Briefingprozess eine untergeordnete Rolle spielen, während Art und Häufigkeit der Kommunikation zwischen Auftraggeber und Auftragnehmer und die Qualität der übermittelten Informationen als ausschlaggebend betrachtet werden. Strukturiertheit und Umfang von Informationen sind häufig nicht ausreichend, bei der nachträglichen Strukturierung und Recherche nach fehlenden Informationen geht gerade im Angebotsprozess wertvolle Zeit verloren. Um dies zu umgehen, wird oft auf bereits bekannte Projektpartner gesetzt. Eine allgemeine Empfehlung an Auftraggeber lautet daher, mehr Zeit und Aufwand in die Briefingerstellung zu investieren. So wird beispielsweise die frühzeitige interne Abstimmung des Vorhabens mit relevanten Stakeholdern als zentral angesehen, um die Voraussetzung für eine reibungslose Informationsübermittlung zu schaffen. Auftragnehmer wiederum können durch häufige und gezielte Nachfragen zum Briefing Missverständnissen und Fehlern frühzeitig vorbeugen.
Non-Profit-Organisationen befinden sich derzeit in einer Gesellschaft, die durch funktionsübergreifendes Arbeiten und schnelle Technologiewechsel gekennzeichnet ist. Wettbewerb, Trends und ein sich veränderndes Nutzerverhalten im Internet, erfordern einen Strukturwandel in der Medienkommunikation. Um heterogene Zielgruppen zu erreichen wird es für Non-Profit-Organisationen immer wichtiger ihre Sprache zu sprechen und ihre Kommunikationstechnologien zu beherrschen. Der Kunde von heute setzt sich aktiv mit Produkten, Angeboten und Dienstleistungen über Foren und Blogs auseinander. Daher müssen Werbemaßnahmen eingesetzt werden, die das entsprechende Nutzungsverhalten aufgreifen. Mit Inbound-Marketing steht ein Marketingprozess zur Verfügung, der auch Kunden einer Non-Profit-Organisation im Kontext einer Content-Marketing-Strategie durch informierende und emotionalisierende Inhalte begeistern und überzeugen kann. Konnten Kunden erfolgreich gewonnen werden, ist die Grundlage eines effektiven Content-Marketings und einer zukunftsweisenden zielgruppenspezifischen Marketingarbeit hinsichtlich kundenspezifischer Medienkanäle, der Erhöhung von Rückverweisen zu einer Webseite im Bereich der Suchmaschinenoptimierung und Mund-zu-Mund-Propaganda gelegt.
In der heutigen Gesellschaft streben Menschen in ihrem Leben vermehrt nach facettenreichen Erlebnissen, die emotional, kognitiv aber auch körperlich oder sensorisch ansprechend sind. Dies spielt insbesondere im Rahmen des Konsumverhaltens eine wichtige Rolle. Kunden und Kundinnen erwarten aufregende und stimulierende Erlebnisse. Hierdurch haben sich sowohl die Wissenschaft als auch die Unternehmenspraxis verstärkt dem Kundenerleben (der Customer Experience) zugewandt. So wurde versucht, die das Kundenerleben bestimmenden Wirkmechanismen zu verstehen, Möglichkeiten zu analysieren, um die Customer Experience gestalten zu können und das Kundenerleben ganzheitlich zu orchestrieren. Aber trotz intensiver wissenschaftlicher sowie unternehmerischer Befassung mit diesem Themenkomplex, existieren noch Lücken und offene Fragen, die durch weitere Forschung beantwortet werden müssen, wenn man das Customer Experience Forschungsfeld auf einen höheren Reifegrad bringen will.
Das Ziel dieser Masterthesis besteht daher darin, durch eine nuancierte Untersuchung (relevanter) Antezedenzien und Konsequenzen, das nomologische Netzwerk der Customer Experience zu erweitern und einen Beitrag zum Ausbau sowie zur Validierung des aktuellen Wissensstands zur Customer Experience zu leisten. Schwerpunktmäßig wird dabei die Frage untersucht, welche Wirkungsbeziehungen sich jeweils zwischen dem Customer Involvement als intrapersonellem Einflussfaktor, der Einfachheit als Angebotsmerkmal, der Customer Experience und dem Customer Commitment als evaluativem Outcome identifizieren lassen.
Um die Forschungsfragen zu beantworten, wurde auf Basis theoretischer und empirischer Erkenntnisse ein mehrdimensionales Customer Experience Modell als Rahmen für die empirische Forschung konzipiert. Basierend hierauf wurde eine Customer Experience Messung in Echtzeit, d. h. unmittelbar nach der Erlebnisinteraktion einer Customer Journey, im Rahmen einer quantitativen Online-Befragung in einem Unternehmen der Telekommunikationsbranche, durchgeführt.
Durch die empirische Untersuchung konnte Einfachheit als Einflussfaktor für die Customer Experience sowie das Customer Commitment bestätigt werden. Während Einfachheit die Customer Experience sowie zwei der untersuchten Customer Commitment-Dimensionen (affektives Commitment, normatives Commitment) beeinflusst, besitzt es auf eine der untersuchten Dimensionen (habituelles Commitment) einen negativen Effekt. Die Customer Experience fungiert dabei als wichtiger Mediator zwischen Einfachheit und Customer Commitment und wirkt darüber hinaus als sechsdimensionales Konstrukt facettenreich auf die einzelnen Customer Commitment-Dimensionen ein. Customer Involvement konnte – als Konstrukt erster Ordnung – nicht als Einflussfaktor bestätigt werden, jedoch ließ sich feststellen, dass sich der Indikator für die wahrgenommene Wichtigkeit positiv auf das Kundenerleben sowie das Customer Commitment auswirkt.
The purpose of this research lies in uncovering the participants emotions when watching a personalized advertisement on the social media Instagram. This is of use to the marketing and psychology research community to discover more on consumer behavior and the controversy between privacy concerns and usefulness of advertisement personalization. The research question reads: “Does the use of personalization on social media advertisements incite (1) a change in the emotional state and (2) recall capability of German Instagram users aged 18-30 that diverges from the psychophysiological parameters measured by exposing these users to the same advertisements without personalization?”
Psychophysiological tests are used in combination with two self reported questionnaires that assess the participants positive and negative effect and the recall and recognition differences between the group given personalized stimuli including the participants name, location, and activity and the one group given impersonalized ones. The sample consists of n=31 German-speaking participants between the age of 18 and 30.
The results, although not all of statistic relevancy of α=0,05, show a trend that personalized advertisements instigate more positive valence and activation as not personalized stimuli. No significant or trending difference was found to the recall and recognition capabilities of the two groups.
Der immer schnellere voranschreitende technische Fortschritt zieht auch in der täglichen Arbeit der nationalen wissenschaftlichen Bibliotheken einen Strukturwandel mit sich. Besonders spürbar sind die Veränderungen bei der komplexen Verwaltung von erworbenen elektronischen Ressourcen, sprich Datenbanken, E-Journals oder E-Books. Vor allem im Bereich der konsortialen Arbeit und der dort stattfindenden Zusammenarbeit zwischen den wissenschaftlichen Bibliotheken und den bundesweit angesiedelten Konsortialstellen, existieren bisher noch keine adäquaten Abläufe beim Management der lizenzierten E-Ressourcen. Das Nachhalten aller relevanter LizenzInformationen, wie beispielsweise Kosten, Lizenz- und Archivzeiträume, Titellisten oder Nutzungsstatistiken, für die vielfältigen elektronischen Ressourcen wird immer komplexer und somit wird es schwieriger, die Ressourcen zentral und transparent zu verwalten. Als Lösung zur Schließung dieser momentan bestehenden Lücke der Verwaltung von E-Ressourcen im Konsortialbereich, wird das Electronic Resource Management System LAS:eR vorgestellt, welches speziell für das Management aller konsortialer Handlungsbedarfe im Bereich E-Ressourcen entwickelt wurde. Anhand von LAS:eR wird verdeutlicht, wie zukünftig die Workflows zwischen den deutschsprachigen Konsortialstellen und den nationalen wissenschaftlichen Bibliotheken deutlich optimiert werden können und dadurch bundesweit Veränderungen in der Konsortialarbeit angestoßen werden können.
Junge, heranwachsende Menschen weisen ein besonders auffälliges Bewegtbildnutzungsverhalten auf. Die vorliegende Arbeit liefert einen Beitrag dazu, dieses Verhalten besser zu verstehen. Zwar existieren bereits einige Studien, die sich mit diesem Thema auseinandersetzen, diese dienen jedoch eher der quantitativen Beschreibung des Verhaltens und tragen recht wenig dazu bei, das Verhalten zu verstehen. In der vorliegenden Arbeit wird das Bewegtbildnutzungsverhalten junger Menschen deshalb im Sinne eines besseren Verständnisses empirisch untersucht. Das Thema Video on Demand findet dabei als für diese Altersgruppe potenziell sehr attraktiver Beschaffungsweg besondere Berücksichtigung. In der Vorbereitung des empirischen Teils der Arbeit werden zunächst die Begriffe Bewegtbild und Video on Demand umfassend erklärt, grundlegende Erkenntnisse der Konsumentenverhaltensforschung dargelegt und der aktuelle Stand der Forschung aufgearbeitet. Den Schwerpunkt dieser Arbeit bildet die anschließende qualitative Befragung von insgesamt 16 Probanden im Alter zwischen 14 und 29 Jahren. Diese Probanden wurden ausführlich zu verschiedenen Aspekten ihres Bewegtbildnutzungsverhaltens interviewt und die Ergebnisse unter Anwendung der qualitativen Inhaltsanalyse nach Mayring systematisch ausgewertet und strukturiert.
Die Förderung von Informationskompetenz (IK) ist eine Kernaufgabe von Hochschulbibliotheken
und entsprechende Veranstaltungen sind zu einem festen Bestandteil
ihrer Dienstleistungen geworden. Dabei lag der Schwerpunkt zunächst auf klassischen
Veranstaltungsinhalten wie Einführungen in die Bibliotheksbenutzung und Rechercheschulungen
in Datenbanken und Katalogen, welche lange Zeit als Kern bibliothekarischer
Informationskompetenzvermittlung betrachtet wurden.
Diese Sichtweise hat sich in den letzten Jahren verändert und es wird überlegt, wie die
Angebote zu erweitern sind, um neuere Entwicklungen in der Informations- und Forschungslandschaft
zu berücksichtigen. Diese Erweiterung wurde u.a. befördert durch
Konkurrenz in Form von Informationsangeboten außerhalb der Bibliothek und durch
die Informationsflut, in der Bibliothekare als Informationsexperten Suchenden den
Weg weisen, aber auch durch suchmaschinenbasierte Kataloge, die das Finden von
Literatur einfacher machen (sollen). So hat sich – zumindest in der bibliothekarischen
Fachdiskussion – zunächst der Fokus von der Recherche von Informationen, hin zu
ihrer Bewertung und Weitererarbeitung verlagert und es wurde darüber hinaus der gesamten
Prozess wissenschaftlicher Arbeit in den Blick genommen.
Dessen ungeachtet gilt, dass in der Praxis klassische Inhalte wie objektorientierte
Schulungen weiterhin überwiegen. Letztlich wird derzeit nur ein kleiner Ausschnitt
des Spektrums der Informationskompetenz abgedeckt. Zugleich haben im Zuge des Bolognaprozesses unter dem Stichwort der employability
Schlüsselkompetenzen und -qualifikationen und somit auch Informationskompetenz an
Bedeutung gewonnen.
Mit dem US-amerikanischen Referenzrahmen für Informationskompetenz aus dem
Jahr 2016, der mit dem Gedanken der threshold concepts auch Eingang in die bibliothekarische Fachdiskussion in Deutschland
gefunden hat, liegt nun ein Papier vor, das diese umfassende Sichtweise einnimmt
und zugleich nicht nur Bibliotheken, sondern auch Fakultäten und Hochschulverwaltungen
auffordert, Informationskompetenz entsprechend ihren lokalen Gegebenheiten
und individuellen Bedarfen auszugestalten.
Diesem Referenzrahmen – dem Information Literacy Framework for Higher Education
der Association of College and Research Libraries (ACRL), nachfolgend kurz
„Framework“ genannt – und seinen Chancen und Grenzen in einem konkreten Fachbereich
widmet sich vorliegende Studie.
Die vorliegende Masterarbeit untersucht die Auswirkungen von Deepfakes auf die journalistische Praxis und beleuchtet die Bedeutung von Aufklärung und Medienkompetenz im Umgang mit dieser Technologie. Mithilfe qualitativer Expert:inneninterviews werden persönliche Perspektiven und Erfahrungen von Medienschaffenden mit Deepfakes in deren alltäglichen Arbeit erfasst, um ein tieferes Verständnis für die Herausforderungen und die notwendigen Anpassungen des Journalismus zu gewinnen.
Die Studie zeigt, dass die Wahrnehmung von und der Umgang mit Deepfakes stark von den persönlichen Erfahrungen der Befragten und deren Bewusstsein für die Technologie abhängen. Dabei unterstreichen die Ergebnisse dieser Arbeit die Notwendigkeit einer strengen Prüfung von Deepfakes, um die Glaubwürdigkeit und Integrität des Journalismus zu wahren. Es wird deutlich, dass es des technologischen Fortschritts und des menschlichen Urteilsvermögens bedarf, um manipulierte Inhalte wirksam zu erkennen und zu bekämpfen. In diesem Kontext betont die Untersuchung die zentrale Rolle der Medienkompetenz, die durch Aufklärungskampagnen und öffentliche Initiativen gefördert werden sollte, um die Fähigkeit der Journalist:innen und der Gesellschaft zur Bekämpfung von Desinformation zu stärken.
In der methodischen Reflexion werden Limitationen wie die Subjektivität der Datenerhebung und die begrenzte Stichprobengröße hervorgehoben, wodurch die Studienergebnisse als spezifische Perspektiven und nicht als universelle Wahrheiten gelten. Eine kritische Methodenbetrachtung ist essenziell, inklusive Verbesserungsvorschlägen für zu-künftige Forschung zu Deepfakes im Journalismus, wie die Erweiterung der Stichprobe und die Präzisierung der Forschungsfragen, um ein tieferes Verständnis zu entwickeln.
Die Ergebnisbetrachtung im theoretischen Rahmen verdeutlicht die Bedeutung von Medienkompetenz und Medienethik für den sorgfältigen und bedachten Umgang mit Medieninhalten, welche es sowohl unter Journalist:innen als auch in der breiten Gesellschaft zu fördern gilt. Die Überarbeitung journalistischer Standards und Arbeitsweisen angesichts digitaler Manipulation benötigt eine ständige Überprüfung ethischer Verantwortungsgrundsätze und die Entwicklung geeigneter Kontrollmechanismen. Eine ethische Zusammenarbeit aller Medienakteur:innen ist entscheidend, um die Glaubwürdigkeit journalistischer Informationen in der digitalen Medienlandschaft zu wahren. Diese erfordert eine kollektive Verantwortung und Weiterbildung von Journalist:innen, Medienorganisationen, Forscher:innen und Rezipient:innen, um wirksame Authentifizierungsstrategien und innovative Erkennungsmethoden zu entwickeln.
In dieser Masterarbeit werden ausgewählte Methoden zur Messung der User Experience dargestellt und analysiert. Als Grundlage der ausgewählten Methoden wurde die Studie, die im Paper „User Experience Evaluation Methods: Current State and Development Needs“ vorgestellt wird, und die dazugehörige Webseite www.allaboutux.org gewählt.
In der Arbeit werden die folgenden Forschungsfragen untersucht und beantwortet.
Forschungsfrage 1: Welchen Stand bzw. welches Wissen hat die Forschung heute (2015) im Bereich der User Experience?
Der Begriff wird definiert, von der Usability abgegrenzt, die Entstehung von User Experience skizziert, sowie wichtige Begriffe vorgestellt. Zudem wird der Begriff im historischen Kontext eingeordnet.
Forschungsfragen 2: Welche Methoden der User Experience können für das Web und Software in welchen Bereichen sinnvoll eingesetzt werden, um die Erfahrungen / Erlebnisse der Benutzer zu ermitteln?
Forschungsfrage 3: Inwiefern ist die User Experience durch diese Methoden messbar?
Forschungsfrage 4: Welche Methoden werden in der Realität wirklich angewandt? Sind Methoden veraltet oder werden nur in der Theorie verwendet?
Um Antworten auf die Frage zu finden, wird eine schon bestehende Studie vorgestellt und die Erkenntnisse mit denen zweier eigener Umfragen zusammengetragen.
Abschließend wird ein Zukunftsausblick für den Umgang mit der Messung von User Experience gegeben.
Innerhalb von Bibliotheken besteht die größte Herausforderung des Bibliotheksmanagements darin, die internen und externen Anforderungen so auszubalancieren, damit flexible Strukturen zur Förderung von innovativen Projekten entstehen und gefördert werden können. Für die strategische Planung von nachhaltigen Innovationsimpulsen, müssen Fragestellungen entwickelt werden, die aus Sicht der Nutzer tatsächlich Relevanz beanspruchen können. Dies Wissen kann jedoch nur in der persönlichen Interaktion mit den Nutzern gewonnen werden. Daher soll in dieser Arbeit der Frage nachgegangen werden, wie sich die benutzerorientierte Methode des Design Thinking für unterschiedliche Anwendungsbereiche in Bibliotheken adaptieren und implementieren lässt. In zwei verschiedenen Use-Case-Szenarien soll deshalb auf spekulative Weise darüber nachgedacht werden, wie verschiedene Tools für die Gestaltung von Publikationsdiensten und Leitbildern zur Anwendung gebracht werden können. Daran anschließend, sollen auch die Fragen aufgeworfen werden, welche Konsequenzen ein solcher Ansatz auf die bibliothekarische Ausbildung haben könnte und inwiefern sich der erfolgreiche Einsatz von Design Thinking bewerten lässt.
Die Unternehmensform der Teststudios, die als Felddienstleister eine bedeutende Rolle innerhalb des Marktforschungsprozesses einnehmen, wurde bisher unter wissenschaftlichen Gesichtspunkten noch nicht näher untersucht. Die vorliegende Arbeit möchte deshalb anhand der Ableitung einer wissenschaftlichen Definition sowie der Erfassung und Beschreibung aller als Teststudio am deutschen Markt aktiven Dienstleister eine Grundlage für zukünftige Forschungsfragen legen. Außerdem möchte sie auf Basis der geschaffenen Grundlage einer eigenen Fragestellung nachgehen. Dazu werden zunächst aus der vollständigen Aufstellung der Anbieter verschiedene Typen von Teststudios abgeleitet und besondere Merkmale der Unternehmen identifiziert. Es zeigt sich, dass sich die am Markt befindlichen Teststudio-Anbieter in die „reinen Teststudios“ und die Mischformen untergliedern lassen. Als Mischformen werden all jene Studios verstanden, die einem Forschungsinstitut angehören, während die reinen Teststudios eigenständige Unternehmen sind, die sich allein auf die Bereitstellung der klassischen Teststudio-Dienstleistungen fokussieren. Wodurch sich jene Teststudio-Leistungen auszeichnen, wird im Rahmen dieser Arbeit ebenfalls behandelt. Auf Basis jener Ergebnisse geht die Arbeit im Folgenden außerdem der Frage nach, welche Determinanten Kunden von Teststudios in ihrer Auswahl eines geeigneten Dienstleisters beeinflussen. Jene Frage stellt den zentralen Forschungsgegenstand dieser Arbeit dar und wird anhand einer empirischen Untersuchung erörtert. Zu diesem Zweck werden qualitative Interviews mit den verschiedenen Akteuren der Branche – Forschungsinstitute, betriebliche Marktforscher und Teststudios – geführt, und auf die Frage hin ausgewertet, wie sich der Auswahlprozess im Detail gestaltet und welche Faktoren auf ihn einwirken. Wie sich zeigt, unterliegen die Kunden – die zumeist durch Forschungsinstitute, in seltenen Fällen aber auch durch betriebliche Marktforscher repräsentiert werden – in ihrem Entscheidungsprozess zahlreichen Einflussfaktoren, wobei die jeweiligen Projektvorgaben und Rahmenbedingungen der durchzuführenden Studie die größte Wirkung auf das Auswahlverhalten ausüben. Aber auch personen- und umweltbezogene Determinanten wie persönliche Präferenzen, vergangene Erfahrungen und Verfahrensvorgaben innerhalb des Kundenunternehmens wirken auf den Entscheidungsprozess ein. Sie bestimmen schließlich, welche Eigenschaften der Teststudios vom Auswählenden als besonders wichtig bewertet werden, sodass er schließlich entsprechend jener Gewichtung den optimal geeigneten Anbieter auswählen kann.
Die vorliegende Arbeit beschäftigt sich mit dem Dienstleistungsangebot von Spezialbibliotheken an Museen. Beispielhaft wird das Dienstleistungsangebot der Bibliotheken der Deutschen Forschungsmuseen der Leibniz-Gemeinschaft untersucht. Neben der Zusammenstellung des aktuellen Angebots wird der Blick in die Zukunft gerichtet: Wie entwickelt sich das Dienstleistungsangebot und welche Perspektiven zeichnen sich ab? Wo besteht Handlungsbedarf?
Diese Zusammenstellung soll Anhalts- und Orientierungspunkte für die Arbeit von Museumsbibliotheken allgemein, insbesondere aber für ganz kleine Institutionen, die im Museumsbereich keine Seltenheit darstellen, geben.
Die überregionale Literaturversorgung in Deutschland hat ihre Wurzeln im beginnenden 20. Jahrhundert und hat sich seitdem dank der Förderung durch die Deutsche Forschungsgemeinschaft und ihrer Vorgängerinstitution beständig weiterentwickelt. Die vorliegende Arbeit beschreibt diese Entwicklung von den ersten Überlegungen zum kooperativen Bestandsaufbau über den Ausbau der überregionalen Literaturversorgung anhand der Sondersammelgebiete zur verteilten nationalen Forschungsbibliothek bis zur Umgestaltung in die Fachinformationsdienste für die Wissenschaft. Anschließend werden einzelne, sowohl inhaltliche als auch strukturelle Aspekte dieses neuen Förderprogramms einer kritischen Analyse unterzogen, wobei ein besonderes Augenmerk auf die praktische Umsetzbarkeit und die möglichen Folgen für die deutsche Informationsinfrastruktur gerichtet wird.
Die Glaubwürdigkeit von Restaurantbewertungen auf Google Maps und deren Einfluss auf Kundenauswahl
(2024)
Electronic-Word-of-Mouth Elektronische Mundpropaganda (eWOM) spielt eine entscheidende Rolle im Entscheidungsprozess der Konsumenten. Während der Informationsbeschaffung neigen Konsumenten dazu, sich auf Bewertungen von tatsächlichen Kunden als Orientierungshilfe zu verlassen. Dennoch ist die Verbreitung von Fälschungen und Manipulationen von Produkten oder Dienstleistungen auf Bewertungsplattformen aufgrund der Anonymität des Internets weit verbreitet. Dies führt zu falschen Einschätzungen bei der Kaufentscheidung und letztendlich zur Unzufriedenheit der Kunden. Dies wiederum zwingt die Konsumenten oft dazu, Entscheidungen in Unsicherheit zu treffen. Zusätzlich stehen die Konsumenten einer enormen Menge an Produktinformationen gegenüber.
Die Analyse der bestehenden Literatur hat gezeigt, dass die Glaubwürdigkeit ein signifikanter Faktor ist, um die Kundenentscheidungen im Kontext von Online-Bewertungen zu beeinflussen. Die Frage, welche Einflussfaktoren eine Bewertung als glaubwürdig erscheinen lassen und wie sie die Kundenentscheidungen beeinflussen, ist jedoch weiterhin von Interesse. Diese Arbeit versucht, diese Frage mithilfe einer quantitativen Forschung auf der Grundlage von 431 Datensätzen zu beantworten. Die Untersuchung konzentriert sich auf Restaurants auf Google Maps und berücksichtigt dabei die folgenden Einflussfaktoren: das Gesamtstern-Rating, die Anzahl der Bewertungen, die Konsistenz des Stern-Ratings und die Darstellungsform einer Bewertung. Die Auswertung mittels Regressionsanalyse und multivariater Varianzanalyse hat gezeigt, dass das Gesamtstern-Rating, die Anzahl der Bewertungen und die Darstellungsform einen signifikanten Einfluss auf die Glaubwürdigkeit haben und somit die Kundenentscheidungen beeinflussen. Des Weiteren wurde festgestellt, dass eine Bewertung mit zusätzlichen Bildern oder Videos einen höheren Einfluss auf die Glaubwürdigkeit hat im Vergleich zu einer Bewertung, die ausschließlich aus reinem Text besteht.
Die ungebrochen rasante Entwicklung digitaler Technik erzeugt wachsenden Druck auf die textorientierte Geschichtswissenschaft. Diese sieht sich von Forschungsförderung und Teilen der eigenen Fachgemeinde in den letzten Jahren zunehmend aufgefordert, dezidierter ihre Position innerhalb des umfassenderen gesellschaftlichen Prozesses des digitalen Wandels zu bestimmen. In der geschichtswissenschaftlichen Forschung stehen die Spezialbibliotheken als Forschungsstätte vor der Herausforderung, ihre Anteile von Speicherort für Medien und Lernort für Forschende neu zu gewichten. Dies vor dem Hintergrund einer stetig zunehmenden Dematerialisierung durch Digitalisierung der Ressourcen auf entfernten Servern. Was für die technikaffinen Naturwissenschaften die gänzlich virtuelle Bibliothek attraktiv macht, scheint auch für die geschichtswissenschaftliche Spezialbibliothek das Auslaufen analoger Buchzentriertheit nahezulegen. Das seit 20 Jahren in der Fachdiskussion so genannte Modell der Hybridbibliothek erweist sich hier als ein bislang tragfähiges Dauerkonzept bei der funktionalen und konzeptionellen Orientierung. Es garantiert der textorientierten Geschichtswissenschaft auch nach dem gegenwärtigen Stand der Diskussion Wissensgenerierung durch Verwendung digitaler Forschungsressourcen bei gleichzeitig haptischräumlicher Präsenz einer Sammlung. Mit Fokus auf die geschichtswissenschaftliche Spezialbibliothek des Deutschen Historischen Instituts Paris, eines der 10 Forschungsinstitute der Max-Weber-Stiftung, soll das Konzept Hybridbibliothek in dieser Arbeit mit dem Diskussionsstand 2015 evaluiert und Argumente für seine bewusste Anwendung in den Spezialbibliotheken der Max-Weber-Stiftung gesichtet werden.
Interkulturelle Bibliotheksarbeit ist seit langem Teil der deutschen Bibliothekswelt. Es gibt
Interkulturelle und Internationale Bibliotheken. Doch was macht eine Bibliothek
international? Gibt es gewisse Kriterien, die eine Bibliothek erfüllen muss, um sich
Internationale Bibliothek zu nennen? Genau dieser Frage geht diese Untersuchung auf den
Grund. Durch die induktive Analyse der Internationalen Bibliothek in Dortmund und der
Interkulturellen Bibliothek und der Internationalen Kinderbibliothek in Duisburg wird ein Kriterienkatalog erstellt. Dieser Kriterienkatalog kann auf jede Bibliothek angewandt werden. Am Ende der Untersuchung ergibt sich eine Prozentzahl, die angibt, wie nah sich eine Bibliothek an der perfekten Internationalen Bibliothek befindet.
Die vorliegende Masterarbeit eruiert informationswissenschaftliche Methoden, um den schriftlichen
Nachlass (bestehend aus Korrespondenzen, (Lebens-)Dokumenten, Fotografien u.ä.) der Familie
Pankok, namentlich von Otto, Hulda und Eva Pankok, zu erschließen. Bei der Bestimmung der
Verfahrensweise sind die Besonderheiten des Pankok Museums und der Otto Pankok Stiftung
entscheidend. Da das Pankok Museum ein kleines Museum mit geringem Stiftungsvermögen der
Otto Pankok Stiftung ist, wird bei der Ermittlung dementsprechend analysiert, welche Maßnahmen
der vorhandenen Infrastruktur gerecht werden. Am Ende der Arbeit steht eine skalierte Bewertung
mit Methoden, die praktisch Schritt für Schritt abgearbeitet werden kann.
Um diese Bewertung fundiert vornehmen zu können, werden vorab nicht nur das Pankok Museum
und die Otto Pankok Stiftung mit ihren Strukturen, finanziellen und personellen Ressourcen sowie
Eigenheiten vorgestellt, sondern auch Nutzer*innengruppen eruiert, die derzeit und zukünftig mit
dem Nachlass der Familie Pankok arbeiten sollen und wollen. Daraus resultierend ermittelt die
Arbeit, die jeweiligen Nutzungsbedarfe dieser Gruppen. Hieraus ergeben sich schließlich Methoden
der Erschließung, die den jeweiligen Bedarfen gerecht werden. Ausgehend von dieser Ausgangsbasis
erarbeitet die Arbeit verschiedene Methoden: Die Gliederung des Bestandes; die vollumfängliche
Erschließung, insbesondere die Einführung eines Archivinformationssystems und einer Klassifikation
bzw. eines Metadatenschemas und die Aufstellungsart; die Digitalisierung, mit Hinblick auf OCR und
Zugangsmöglichkeiten und die Sichtbarkeit und Präsenz. Ein weiteres Kapitel beschäftigt sich neben
den Erschließungsmethoden mit den Gesetzen, die im Rahmen der Erschließung zu beachten sind,
insbesondere das Nutzungs- und Urheberrecht.
Um herauszufinden, inwiefern diese Methoden umgesetzt werden können, evaluiert die Arbeit die
einschlägigen Regelwerke, wie die Regeln zur Erschließung von Nachlässen und Autographen (RNA),
und wirft einen Blick auf andere informationswissenschaftliche Einrichtungen und wie diese
ähnliche Projekte umgesetzt haben.
Schon während der Erhebung von verschiedenen Methoden wird die jeweilige Umsetzbarkeit
anhand der Möglichkeiten des Pankok Museums diskutiert, so dass abschließend
Handlungsvorschläge gegeben werden, die mit einer skalierten Bewertung der Vorgehensweise
enden.
Im Zuge der Folgen des unnachhaltigen Konsums, wie z.B. dem Klimawandel, gewinnt nachhaltiger Konsum zunehmend an gesellschaftlicher Relevanz. Vor allem der nachhaltige Konsum junger Menschen rückt hierbei in den Vordergrund, da dieser in Zukunft über die Erreichung nachhaltigkeitsbezogener Ziele mitbestimmen wird. Diesbezüglich wird zunehmend auf das Potenzial sogenannter „Green-Influencer*innen“ hingewiesen, die in den sozialen Medien nachhaltigkeitsbezogene Inhalte veröffentlichen.
Vor diesem Hintergrund geht diese Arbeit der Frage nach, welche Rolle Green-Influencer*innen beim nachhaltigen Konsum von Jugendlichen und jungen Erwachsenen einnehmen. Hierzu wurden zehn problemzentrierte Online-Interviews mit 16- bis 21-jährigen jungen Menschen, die mindestens einer oder einem Green-Influencer*in folgen, geführt und in Anlehnung an die qualitative Inhaltsanalyse ausgewertet. Zentrales Ergebnis der Untersuchung ist, dass Green-Influencer*innen bei den Teilnehmerinnen die Rolle von Treiber*innen des nachhaltigen Konsums einnehmen, wodurch ihr nachhaltige Konsum gefördert wird.
Der Auskunftsdienst ist eine Kernaufgabe für Bibliotheken und befindet sich durch die digitale Transformation in einem permanenten Veränderungsprozess. Wissenschaftliche Bibliotheken sollten sich klar zu einem professionellen Auskunftsdienst mit all seinen Facetten bekennen und vor allem ganzheitliche Konzepte entwickeln. Die vielfältigen Herausforderungen für die Weiterentwicklung dieser Dienstleistung verlangen eine proaktive Vorgehensweise von allen Beteiligten. Viele positive und erfolgsversprechende Ansätze im Auskunftsdienst konnten bisher nicht flächendeckend verwirklicht werden. Der bibliothekarische Auskunftsdienst muss sich stärker an den Bibliothekskunden orientieren und individuelle sowie zielgruppenspezifische Angebote schaffen. Unabdingbar ist dabei die Förderung der Kompetenzen wie auch eine aktive Einbindung des bibliothekarischen Personals in den Veränderungsprozess. Zur Unterstreichung dieser Thesen wurden Bibliothekare in einer Online-Umfrage zum aktuellen Veränderungsprozess im Handlungsfeld Auskunftsdienst befragt und sollten bewerten, welche neuen Anforderungen sich daraus für die Berufspraxis ergeben.
Die vorliegende Masterarbeit befasst sich mit der Veranstaltungsarbeit ausgewählter öffentlicher Bibliotheken in Nordrhein-Westfalen seit Beginn der CO-VID-19-Pandemie. Dafür wurde zunächst die Veranstaltungsarbeit in öffentlichen Bibliotheken betrachtet, wobei die gängigen Veranstaltungsangebote in die Bereiche Lese- und Sprachförderung, Literaturvermittlung, Medienkompetenzvermittlung, Informationskompetenzvermittlung, Lernangebote sowie Schaffung von Netzwerken und Gemeinschaft unterteilt werden. Im Weiteren wurden aktuelle Trends wie Bildung für nachhaltige Entwicklung, MINT und Künstliche Intelligenz aufgezeigt, und anschließend Prognosen für die künftige Veranstaltungsarbeit daraus abgeleitet. Mittels einer Online-Umfrage, die sich an Bibliotheken der dbv-Sektionen 1, 2 und 3a in NRW in kommunaler Trägerschaft richten, wurde erörtert, welche Veranstaltungsangebote als Reaktion auf die COVID-19-Pandemie geändert, neu entwickelt und umgesetzt wurden, welche dieser Veranstaltungen aktuell noch angeboten werden und was dies für die künftige Entwicklung von Veranstaltungsangeboten bedeutet. Aktuell geht der Trend wieder zurück zu den analogen Angeboten, dennoch werden künftig auch digitale Angebote in das Veranstaltungsprogramm von öffentlichen Bibliotheken integriert.
In Anwaltskanzleien wird mit den Mandanten immer mehr per E-Mail kommuniziert.
Darunter befinden sich zahlreiche steuerrelevante oder beweiskräftige E-Mails mit
Anhängen. Kanzleien sind u.a. aus gesetzlichen Gründen dazu verpflichtet, diese
dauerhaft digital zu archivieren. In einer internationalen Großkanzlei müssen dazu noch
unterschiedliche Rechtsprechungen, Arbeitskulturen und Sprachen berücksichtigt
werden.
Die vorliegende Arbeit untersucht die Situation der digitalen Langzeitarchivierung am
Fallbeispiel einer internationalen Großkanzlei mit 29 Büros in 20 Ländern. Die Arbeit
konzentriert sich auf die E-Mailarchivierung und die digitale Archivierung von
Objekten für den persönlichen Gebrauch jedes Kanzleimitarbeiters. Aufgrund fehlender
spezifischer Literatur wird die Ausgangslage mithilfe von Experteninterviews erhoben.
Die Interviews werden ausgewertet und am Ende der Arbeit systematisiert
zusammengefasst.
Digitale Psychometrie: Chancen und Risiken des psychologischen Profilings in der Marktforschung
(2018)
Die vorliegende Masterarbeit beschäftigt sich mit dem Thema der digitalen Psychometrie. Das Ziel war es herauszufinden, inwieweit psychologische Profiling-Analysen die Marktforschungsbranche beeinflussen bzw. verändern. Durch tiefgründige Recherche der Grundlagen des Themas konnte festgestellt werden, dass es Prognosen gibt, jedoch diese sehr allgemein gehalten wurden und nicht im speziellen auf die hier beschriebene Branche eingehen. Durch die Entwick-lung eines Leitfadens konnten Experten auf diesem Gebiet befragt werden. Nach Durchführung der Interviews kann herausgestellt werden, dass der digitale Wandel auch die Marktforschung verändert. Wann und in welchem Umfang ist unklar. Welche grundlegenden Veränderungen Marktforscher jedoch erwarten müssen, konnte sehr genau dargestellt werden. Diese Arbeit gibt demnach eine Prognose für den Wandel der Marktforschung inklusive Verhaltensempfehlungen für die Forscher.
Historische Bibliotheken des Mittelalters und der frühen Neuzeit sind heute in der Regel nicht mehr vollständig und an ihrem ursprünglichen Ort erhalten, sondern nur fragmentarisch und in auf verschiedene Aufbewahrungsorte zerstreuter Form. Mit Hilfe der heute verfügbaren Technologien kann man aufgelöste und physisch zerstreute Bibliotheken digital rekonstruieren und zusammenführen, so dass sie zumindest im virtuellen Raum als zusammengehörige Ensembles sichtbar und erlebbar werden.
Gegenstand der vorliegenden Masterarbeit ist die digitale Rekonstruktion als Präsentations- und Vermittlungsformat für historische, heute mitunter physisch dislozierte Sammlungen. Am Beispiel virtueller Kloster- und Dombibliotheken des Mittelalters und der frühen Neuzeit wird untersucht, wie digitale Rekonstruktionen historischer Bibliotheken konzeptionell umgesetzt werden können. Die Umsetzungsmöglichkeiten virtueller Klosterbibliotheken werden dabei aus Sicht der Zielgruppe analysiert. Basierend auf der Bewertung der Portale von fünf repräsentativen Fallbeispielen werden der Verbesserungsbedarf festgestellt und ausgehend davon idealtypische Anforderungen an die Qualität virtueller Kloster- und Dombibliotheken sowie Kriterien für Best Practices entwickelt.
Verbesserungspotenziale bestehen in den Bereichen der wissenschaftlichen Erschließung, der Sicherung der Nachhaltigkeit, der Nutzungsbedingungen und des Rechtemanagements, der wissenschaftlichen Bearbeitung und des Feedbacks durch Nutzer*innen sowie der Vergleichbarkeit und Vernetzung virtueller Kloster- und Dombibliotheken untereinander. Um virtuelle Klosterbibliotheken miteinander in Beziehung zu setzen, wäre auch die Schaffung geeigneter übergeordneter Strukturen notwendig. Such- und Filtermöglichkeiten nach historischen Sammlungen und Bibliotheken innerhalb übergreifender Portale, welche die Inhalte virtueller Klosterbibliotheken anbieten, würden es der Zielgruppe ermöglichen, die sie interessierenden historischen Bibliotheken selbständig zu generieren – die Nutzer*innen würden somit selbst zum Akteur der virtuellen Rekonstruktion.
Besonders kleinere stationäre Geschäfte haben seit Jahren mit der florierenden Konkurrenz des Online-Handels zu kämpfen. Die Nutzung von neuen digitalen Möglichkeiten stellt dabei eine Chance für Einzelhändler dar. Ein Ansatz liegt in der Ausbringung von ortsbasierten Marketinginhalten an Smartphone-Nutzer. Ob es gelingen kann, das Interesse der Käuferschaft für den lokalen Handel mittels Mobile Marketing wiederzuerwecken, ist das Bestreben des umfangreich angelegten Pilotprojektes Digitales Viertel im Kölner Stadtteil Sülz/Klettenberg. Diese Arbeit mit dem Thema Digitales Standortmarketing im stationären Handel. Händlerbefragung im ‚Digitalen Viertel’ des Kölner Stadtteils Sülz/Klettenberg nimmt als qualitative Teilstudie des Projektes die Sicht der Händler ein. Dabei widmet sie sich unter anderem der Fragestellung: Was bringt ein digitalisiertes Viertel für den Handel und was bringt ein digitalisierter Handel für das Viertel? Die Beantwortung der Fragen erfolgt durch die Diskussion bestehender Theorie im Zusammenspiel der Analyse der eigenständig durchgeführten empirischen Leitfadeninterviews mit erfahrenen Händlern. Es werden grundlegende Ansichten und Herausforderungen der Händler vor Ort sowie deren Einstellungen gegenüber der digitalen Entwicklung und dem konkreten Projekt eruiert. Die Ergebnisse unterstützen einerseits weitere Online-Befragungen im Projekt, andererseits wurden Handlungsempfehlungen entwickelt. Die Analyse ergab, dass sich die Einzelhändler in einem Zwiespalt zwischen analoger und digitaler Welt befinden. Zwar sind Aufgeschlossenheit und Neugier festzustellen, dennoch richten sich große Zweifel an das Kölner Experiment. Indes zeigen die Händler in ihrer Zukunftsvision ein ganz ähnliches Szenario auf. Es konnten jedoch auch Grenzen ausgemacht werden, die ebenso Beachtung finden.
Der Wandel der Gesellschaft zeigt sich immer stärker im Abbild der deutschen Gesellschaft und Diversity gewinnt an Bedeutung. Die Anzahl der zugehörigen Menschen in den Diversity Dimensionen steigt stetig an. Zudem werden Social-Media-Kanäle wie Instagram aufgrund ihrer starken Entwicklungen, durch die Digitalisierung, immer interessanter für Unternehmen, um Werbung zu veröffentlichen. Die Herausforderung dabei ist, zu planen welche Inhalte effektiv sind und bei den Nutzenden den gewollten Werbeeffekt auslösen. Beispielhaft ist hier der Effekt der Glaubwürdigkeitszuschreibung zu nennen, denn diese ist häufig die Basis für eine steigende Bindung der Kundschaft.
Das Ziel der vorliegenden Arbeit war zu ermitteln, wie Werbung mit Diversity-Bezug über Instagram die Glaubwürdigkeit von Unternehmen beeinflussen kann und welche Faktoren sowie Indikatoren dabei zu berücksichtigen sind. Dazu wurde die folgende Forschungsfrage untersucht: „Inwiefern kann Werbung mit Diversity über Instagram, als externe Unternehmenskommunikation, die Glaubwürdigkeit eines Unternehmens in Deutschland steigern?“.
Im Rahmen einer Literaturrecherche wurden die Themen Diversity, Glaubwürdigkeit und die Indikatoren der Zuschreibung sowie die Unternehmenskommunikation detaillierter erläutert. Anschließend wurde eine qualitative Inhaltsanalyse durchgeführt, bei der 122 Instagram Beiträge mit Diversity-Bezug von vier ausgewählten Unternehmen untersucht wurden, um zu ermitteln, wie die Gesamtglaubwürdigkeit der veröffentlichten Beiträge ist. Dazu wurden verschiedenste Indikatoren betrachtet. Die Beiträge wurden im Zeitraum September 2020 bis November 2021 von den Unternehmen veröffentlicht und im März 2022 anhand eines theoriegeleiteten Kategoriensystems analysiert. Basierend auf der zuvor dargelegten Theorie wurden sieben Glaubwürdigkeitsindikatoren festgelegt: Transparenz, Objektivität, Sympathie, Vertrauenswürdigkeit, Konsistenz und Authentizität, Verständlichkeit und Kompetenz. Die qualitative Inhaltsanalyse zeigte auf, dass das reale Abbilden der Gesellschaft durch die fünf Diversity Dimensionen (Alter, Geschlecht, ethnische Herkunft und Nationalität, körperliche und geistige Fähigkeiten sowie sexuelle Orientierung) einen positiven Effekt auf die Glaubwürdigkeitszuschreibung hat. Auch die Verwendung von Hashtags oder die Kommunikation der Unternehmenswerte in Bezug auf Diversity haben einen Einfluss auf die Unternehmensglaubwürdigkeit. Die Indikatoren Objektivität, Kompetenz und Transparenz konnten den Beiträgen im Vergleich am wenigsten zugeschrieben werden, nehmen aber einen bedeutenden Aspekt in der Zuschreibung der Glaubwürdigkeit von Unternehmen ein.
eHealth Literacy : Analyse aktueller Gesundheitskompetenzmodelle im Zeitalter der Digitalisierung
(2017)
Gesundheit wird aufgrund des Fachkräftemangels sowie der Digitalisierung zu einer immer
individuelleren Angelegenheit. Kompetenzen für die Inanspruchnahme elektronischer Ressourcen
zum Selbstmanagement werden unter dem Begriff eHealth Literacy zusammengefasst.
Im Rahmen der vorliegenden Arbeit werden eHealth Angebote aus den Bereichen
Gesundheitsförderung, Prävention und Krankheitsbewältigung aus einer medienwissenschaftlichen
Perspektive heraus analysiert. Dabei wird der Frage nachgegangen, welche
Kompetenzen und welch kognitiver Aufwand zur ersten Inanspruchnahme von gesundheitsspezifischen
Informations- und Kommunikationstechnologien erforderlich sind. Für die
Analyse werden mehrere Ansätze integriert und um eine rechtliche Komponente ergänzt.
Die Ergebnisse weisen auf eine Verringerung der Anzahl erforderlicher Kompetenzen bei
gleichzeitigem Anstieg des kognitiven Aufwands hin. Angesichts der Intransparenz aufkommender
Innovationen wird eine Erweiterung der Modelle um informationstechnische
sowie ethische Aspekte angeregt.
Im April 2021 wurde die Eröffnung einer Zweigstelle der Stadtbücherei Delmenhorst im Neubau des städtischen Krankenhauses (Delme Klinikum Delmenhorst) beschlossen. Diese Bibliothek soll sowohl Aufgaben einer Bücherei im Krankenhaus als auch einer Stadtteilbibliothek übernehmen und für alle Bürgerinnen und Bürger frei zugänglich sein. Die vorliegende Arbeit zeigt auf, wie diese Zweigstelle ihr Rollenverständnis definieren kann. Hierfür wird zunächst eine Umfeldanalyse erstellt, in der interne und externe Rahmenbedingungen aufgezeigt werden. Mithilfe der informationslogistischen Rollen, des Four-Spaces-Modells, sowie des Funktionsrahmens für Bibliotheken, der von der Fachstelle NRW ausgearbeitet wurde, werden anschließend strategische Überlegungen zur Positionierung der Zweigstelle innerhalb des Bibliothekssystems, in der Klinik, der Stadtverwaltung sowie im Stadtteil herausgearbeitet. Die darauf aufbauenden Empfehlungen für die operative Planung umfassen die Ressourcen für (technische) Infrastruktur, Bestand, Öffnungsstunden und Personal. Abschließend wird eine Vision zur Konzeption der neuen Zweigstelle formuliert. Darüber hinaus liefert die vorliegende Arbeit eine kritische Auseinandersetzung mit dem Rollenverständnis Öffentlicher Bibliotheken in der digitalen Gesellschaft unter besonderer Einbeziehung kleiner Räumlichkeiten.
Die vorliegende Arbeit untersucht die Preisbeurteilung unter dem Einsatz der transparenten Preiskommunikation. Dabei liegt der Fokus auf dem Vergleich der Beurteilung eines transparent kommunizierten Preises von verschieden nachhaltigen Konsumtypen. Die Untersuchung erfolgt anhand einer Literaturrecherche und eines darauf aufbauenden Experiments. Das Ziel dieser Forschung ist es, durch neue Erkenntnisse in Bezug auf die nachhaltige Preis- und Kommunikationspolitik einen Beitrag in der Preisforschung zu leisten und Empfehlungen für die Unternehmenspraxis abzugeben.
Der Einsatz von zusätzlichen Preisinformationen wird in der Preisgestaltung angewendet, um die Preiswahrnehmung und die Preisbeurteilung der Konsumierenden zu beeinflussen. Gerade für nachhaltige Produkte, die häufig mit hohen Preisaufschlägen versehen sind, stellt sich die Frage, wie Konsumierende zu einer besseren Preisbeurteilung und damit auch zum Kauf bekräftigt werden können. Das Mittel der Transparenz nimmt eine immer wichtigere Rolle ein, die auch in die Preispolitik integriert werden kann. Dabei bleibt jedoch offen, wie die Transparenz sich auf verschiedene Konsumtypen auswirkt. Daraus erschließt sich folgende Forschungsfrage: Welchen Einfluss hat die transparente Preiskommunikation auf die Preisbeurteilung verschiedener Konsumtypen?
Zur Prüfung dieser Forschungsfrage wurde ein Experiment im Rahmen einer quantitativen Online-Befragung durchgeführt. Aus der empirischen Untersuchung geht hervor, dass die transparente Preiskommunikation positiven Einfluss auf die Preisbeurteilung von verschiedene Konsumtypen hat. Deutlich nachhaltig Konsumierende beurteilen den transparent kommunizierten Preis positiver als nur ansatzweise nachhaltig Konsumierende dies tun. Dafür zeigt sich bei den ansatzweise nachhaltig Konsumierenden eine stärkere Veränderung in der Beurteilung eines Preises mit und ohne Transparenz im Vergleich zu deutlich nachhaltig Konsumierenden. Auf dieser Grundlage ist es für nachhaltige Produkte und Unternehmen empfehlenswert, die transparente Preiskommunikation für ansatzweise nachhaltig Konsumierende sowie für deutlich nachhaltig Konsumierende in die unternehmenseigene Preis- und Kommunikationsgestaltung zu implementieren, um eine positivere Preisbeurteilung hervorzurufen.
Produkte der Kategorie Fast Moving Consumer Goods (FMCG) wie Lebensmittel oder Hygieneartikel werden von Konsument*innen schnell verbraucht und wieder eingekauft. Trotz der Konkurrenz auf diesem Markt entwickeln Unternehmen zunehmend neuartige Produkte, die sich durch ihren Nutzenvorteil, ihre Originalität und ihre besonderen Eigenschaften etablieren sollen. Angesichts aktueller Veränderungen in den technischen Möglichkeiten sowie gesellschaftlichen Bedingungen und damit im Konsumverhalten der Menschen stellt sich für die Forschung und Unternehmen die Frage, welche Aspekte den Erfolg dieser Produkte bestimmen. Vor dem Hintergrund bestehender Literatur zu Einflussfaktoren auf das Kaufverhalten untersucht diese Arbeit daher anhand eines eigenen Forschungsmodells, inwieweit die zentralen Produktfaktoren Preis und Produktwissen sowie die individuelle Eigenschaft der Innovationsbereitschaft die Kaufintention von Innovationen im FMCG-Bereich beeinflussen.
In einer experimentell angelegten Onlinebefragung im 2×2-Between Subjects-Design wurde Proband*innen (N = 305) ein neuartiges Tiefkühlprodukt (Cherry Chocolate Bowl der Marke spoondays) vorgestellt, dessen Präsentation sich hinsichtlich des Preises (niedrig vs. hoch) und des Produktwissens (wenig vs. viel) unterschied. Neben der allgemeinen Innovationsbereitschaft und der Kaufintention beinhaltete der Fragebogen zusätzliche Messungen zu kaufrelevanten Variablen wie der Wahrnehmung der Produktqualität und des Produktwerts.
Die Ergebnisse von Varianzanalysen zeigten, dass sich ein niedriger Preis und viele Informationen signifikant positiv auf die Kaufintention zum gezeigten Produkt auswirkten; eine Interaktion der beiden Faktoren ergab sich nicht. Eine Moderation durch das individuelle Merkmale der Innovationsbereitschaft ließ sich bei beiden Effekten nicht feststellen. Eine explorative Analyse auf Basis von Gruppenvergleichen und Regressionsmodellen zeigte außerdem, dass eine gesteigerte Kaufintention mit einer positiven Wahrnehmung im Hinblick auf Produktqualität und Produktwert verbunden war.
Zusammenfassend deuten die Ergebnisse darauf hin, dass der Kauf innovativer Produkte im FMCG-Bereich eher durch produktbezogene Merkmale als durch individuelle Eigenschaften der Konsument*innen bedingt wird. Die Arbeit diskutiert die Implikationen dieses Befunds für die zukünftige Untersuchung von Innovationen sowie für das Marketing entsprechender Produkte.
Der Standardisierungsausschuss, das im deutschsprachigen Raum für bibliografische Standards überregionale Koordinierungsgremium, hatte sich am 6. Dezember 2001 für einen Umstieg von dem deutschen Regelwerk RAK und dem Austauschformat MAB2 hin zu den anglo-amerikanischen Standards AACR2 und MARC 21 ausgesprochen. In seiner 9. Sitzung am 15. Dezember 2004, nach Bewertung der Ergebnisse der durch die Deutsche Forschungsgemeinschaft (DFG) geförderten Studie "Umstieg auf internationale Formate und Regelwerke (MARC 21, AACR2), hat der Standardisierungsausschuss einstimmig die Internationalisierung der deutschen Standards beschlossen.
Nach nun fast fünfzehn Jahren des Umstiegs versucht die vorliegende Arbeit die hieraus entstandenen Arbeiten und Aufwände im Umfeld der deutschsprachigen Verbundsysteme zu benennen und zu bewerten. Schnell wurde jedoch klar, dass im Rahmen einer Masterarbeit nicht wirklich alle notwendigen Aufwände beschrieben und bewertet werden können. Aus diesem Grund wurde die Fragestellung auf die Einführung von MARC 21 im deutschsprachigen Raum unter dem Hauptaspekt des Datenaustauschs "Titeldaten" der Verbünde eingegrenzt.
Untersucht und bewertet werden diese Umstiegsarbeiten hinsichtlich der durch den Standardisierungsausschuss, der Deutschen Nationalbibliothek und der Deutschen Forschungsgemeinschaft beabsichtigten Ziele der Internationalisierung der deutschen Standards für das Format und Regelwerk sowie der Integration der deutschsprachigen Forschung in die internationale Forschungsgemeinschaft.
Die Einführung von RFID an allen Standorten der Universitätsbibliothek der RPTU in Kaiserslautern und Landau wird in dieser Arbeit aus Sicht des Projektmanagements und des Changemanagements betrachtet. Mit Hilfe des Projektphasenmodells werden alle wichtigen Aspekte der Strategie- und Planungsphase für das Projekt systematisch bearbeitet.
Für die Universitätsbibliothek wird eine Situations- und Umfeldanalyse erstellt und es wird ein Projektplan mit Projektstrukturplan, Zeitplan, Ressourcenplan und Kostenplan ausgearbeitet. Die Pläne berücksichtigen dabei drei verschiedene Ausbaustufen der Einführung von RFID, die speziell auf die Situation vor Ort angepasst sind.
Die durch das Projekt angestoßenen Veränderungen auf Seiten des Personals, der internen Abläufe und der Nutzer:innen werden analysiert und es werden geeignete Maßnahmen zur Begleitung der Veränderungen aus Sicht des Changemanagements erarbeitet. Die theoretisch fundierten Vorüberlegungen dieser Arbeit legen die Basis für eine erfolgreiche Durchführung des geplanten Projekts.
Self-Tracking ist mittlerweile in alle Bereiche des persönlichen Lebens vorgedrungen. Mithilfe von Wearables wie Aktivitätstrackern und anderen Smart Devices wie Smart Glasses sowie Apps werden Daten über die eigene Person aufgezeichnet. Dabei werden zum Beispiel sportliche Aktivitäten, Ernährung, Stimmung und physische Daten dokumentiert. In dieser Arbeit werden – auf Basis aktueller Marktforschungs-Methoden sowie einer Markt- und Wettbewerbsanalyse – im Rahmen von Experteninterviews mögliche Einsatzbereiche von Self-Tracking in der qualitativen Marktforschung diskutiert. Es wird beurteilt, welchen Nutzen Self-Tracking für Werbeforschung, ethnografische Forschung, Customer Experience-Forschung und Mystery Shopping bringt und inwiefern es bestehende Methoden ergänzen oder ersetzen kann.
In der vorliegenden Arbeit werden Möglichkeiten zum Einsatz interaktiver Elemente auf Bibliothekswebsites beschrieben und deren zukünftige Relevanz untersucht. Nach einer Begriffsdefinition wird die Notwendigkeit für den Einsatz interaktiver Elemente anhand von Kriterien aus dem technischen, kulturellen sowie institutionellen Umfeld abgeleitet. Eine Auswahl an Websites von Bibliotheken sowie von Anbietern außerhalb des Bibliothekswesens wird analysiert, um geeignete Umsetzungen zu identifizieren. Durch eine Evaluation wird ersichtlich, welche interaktiven Elemente für Bibliothekswebsites sowie insbesondere für die Website der Bayerischen Staatsbibliothek sinnvoll erscheinen. Konkrete Empfehlungen zur Umsetzung und Integration von interaktiven Elementen werden gegeben.
Die Digitalisierung eröffnet immer neue Möglichkeiten und bringt zahlreiche Veränderungen mit sich. Dabei wirken diese sich auch auf die Automobilmärkte aus. Durch den Eintritt von Online-Neuwagenvermittlern wird der Automobilhandel um einen Akteur erweitert.
Im Rahmen dieser Arbeit wird der Fokus auf eben jene Online-Vermittler gelegt, die sich insbesondere aufgrund der hohen Nachlässe im Neuwagenmarkt erfolgreich etabliert haben. Explizit werden die Möglichkeiten einer Produkterweiterung durch sogenannte Mobilitätsraten für Online-Neuwagenvermittler betrachtet.
Diese Art der Pkw-Finanzierung etabliert sich aufgrund steigender Zahlen im Car-Sharing und Finanzierungsgeschäft. Darüber hinaus findet ein Umdenken in Teilen der Bevölkerung statt, die einen Mittelweg zwischen Neuwagenkauf und dem klassischen Car-Sharing nachfragen.
Die folgende Arbeit hat es sich zum Schwerpunkt gemacht, die Komposition solcher Raten für Online-Neuwagenvermittler zu betrachten.
Hierzu wurde anhand einer conjoint-analytischen Untersuchung die Wichtigkeit der einzelnen Bestandteile einer Mobilitätsrate untersucht. Final werden diese Elemente so kombiniert, dass ein möglichst hoher Nutzenwert für die KonsumentInnen entsteht.
Mit der fortschreitenden Digitalisierung verändert sich nicht nur das Leben und Arbeiten, sondern auch die Art und Weise, wie Bürger:innen mit Verwaltungen in Kontakt treten.
Besonders Kommunen stehen als direkter Kontaktpunkt mit Bürger:innen und Unternehmen im Fokus der aktuellen Forderungen nach einer schnelleren digitalen Transformation des öffentlichen Sektors. Dennoch paart sich ein Rückstand der Digitalisierung mit dem Mangel an theoretisch fundierter Literatur zur Erarbeitung digitaler Services auf kommunaler Ebene. Die Erstellung und Implementierung digitaler Services kann dabei nicht als ein von der Organisation losgelöster Prozess gesehen werden. Vielmehr müssen die Besonderheiten der kommunalen Organisationskultur – wie z. B. bürokratische Prozesse und hierarchisch geprägte Personalstrukturen – aktiv aufgegriffen werden.
Das Ziel der vorliegenden Arbeit ist es daher, Hürden und Treiber bei der Erarbeitung und Implementierung digitaler Services auf kommunaler Ebene zu identifizieren. In einer Einzelfallstudie wird ein in Co-Kreation zwischen Mitarbeitenden und externen Berater:innen durchgeführtes Projekt rückwirkend betrachtet und analysiert. Dazu werden Spezifika des kommunalen Sektors, Theorien zum digitalen Organisationswandel sowie Erkenntnisse aus Einzelinterviews und einer Gruppendiskussion strukturiert zusammengebracht. So können Herausforderungen und Treiber identifiziert werden, die sich auf vier Handlungsfelder erstrecken: Information, Mensch, Produkt und Organisation.
Aus Sicht der Wissenschaft trägt dieser Artikel zur Schließung der vorhanden Forschungslücke und zur breiteren Diskussion im Bereich des digitalen Organisationswandels bei. Denn digitale Dienste können nicht länger unabhängig von ihrem Entstehungs- und Nutzungskontext betrachtet werden. Dabei unterstützen die identifizierten Handlungsfelder sowie Herausforderungen und Treiber und legen den Grundstein für tiefergehende wissenschaftliche Betrachtung.
Im Rahmen dieser Arbeit sollen Erfolgsfaktoren des K-Pop-Phänomens in Deutschland herausgearbeitet werden, die sowohl Akzeptanz als auch Beliebtheit steigern. Als Basis wurde eine Studie der Korean Foundation of Cultural Exchange benutzt, da diese Gründe aufgezählt, warum K-Pop außerhalb Südkoreas konsumiert wird. Eine Online-Umfrage wurde als Forschungsmethode gewählt, da sich die deutsche Hörerschaft eine hohe Online-Aktivität verzeichnet. Daraus resultiert, dass die deutsche Hörerschaft den Fokus auf Tanz, Performance, Rhythmus und Interaktionen zwischen Künstler:innen und Fans setzt. Zudem agiert die deutsche Hörerschaft als starke Community und reflektiert kritisch über die K-Pop-Industrie, wie aus einem qualitativen Teil der Umfrage ausgeht.
Die fortschreitende Entwicklung der Web-Technologien stellt neue Herausforderungen an die
Nutzerschulung an wissenschaftlichen Bibliotheken – nicht zuletzt in der Vermittlung von
Bildungsangeboten und neuen, multi-dimensionalen Szenarien der Nutzung. In einer Auswertung
der Fachliteratur wird gezeigt, dass sich für bestimmte, vor allem individualisierte und
ortsunabhängige Lernszenarien mit klaren und eher einfachen inhaltlichen Fragestellungen der
Einsatz von Screencasts (einer Form kurzer Lehrvideos) besonders eignet. Es werden
Nutzungsszenarien und Lerntypen beschrieben, für die der Einsatz von Screencasts lohnend
erscheint. Sollen Screencasts im Bibliothekskontext eingesetzt werden, ergeben sich aus diesen
Nutzungsszenarien methodische und funktionale Anforderungen. Auf der Basis dieser Kriterien
wird eine umfangreiche praktische Anleitung erarbeitet, mit der auch Laien qualitativ hochwertige
Screencasts für den bibliothekarischen Kontext mit geringem Ressourcenaufwand selbst erstellen
können.
Wie kann den aktuellen Herausforderungen, vor denen die Mittelverteilung an wissenschaftlichen Bibliotheken durch den digitalen Wandel und die Open-Access-Transformation steht, in einem Etatverteilungmodell begegnet werden? Diese Frage versucht die vorliegende Arbeit am Beispiel eines Entwurfs für die zukünftige Verteilung der Erwerbungsmittel an der Universitätsbibliothek der RPTU in Kaiserslautern und Landau zu beantworten.
Auf Basis einer zunächst theoretischen Betrachtung der Grundlagen von Etatberechnungsmodellen und den Herausforderungen mit denen diese aktuell konfrontiert sind, werden anhand von drei ausgewählten Beispielen verschiedene Möglichkeiten gezeigt, wie die Mittelverteilung an wissenschaftlichen Bibliotheken praktisch umgesetzt werden kann. In der Folge werden Anforderungen für ein neues, modernes Mittelverteilungsmodell für die Universitätsbibliothek der RPTU definiert und ausgehend von einer Bedarfsermittlung und der Analyse des Publikationsverhaltens der Forschenden der RPTU der Entwurf eines dreiteiligen Etatverteilungsmodells abgeleitet. Diese Arbeit stellt die grundlegenden Gedanken und Überlegungen auf dem Weg zu diesem Modell dar und setzt es anschließend in den Kontext aktueller Entwicklungen im Bereich Literaturerwerbung an wissenschaftlichen Bibliotheken in Deutschland.
Seit den 50er Jahren werden im Westdeutschen Rundfunk audiovisuelle Inhalte produziert. Zur weiteren Verwendung werden diese Inhalte im Videoarchiv aufbewahrt. Zur Speicherung dienen Magnetbänder, Filme und optische Datenträger. Seit einigen Jahren wird die Produktion auf filebasierte Arbeitsabläufe umgestellt. In diesen Abläufen sind physikalische Datenträger kontraproduktiv und die darauf enthaltenen Inhalte werden durch verschiedene Prozesse in Dateien umgewandelt. Diese Masterthesis geht der Frage nach, ob nach erfolgreicher Retrodigitalisierung die Originaldatenträger kassiert werden können. Zu diesem Zweck werden der Archivbestand und die Retrodigitalisierungsmaßnahmen vorgestellt. Das Ergebnis der Arbeit soll eine mögliche Herangehensweise an eine Kassation sein.
Im Zeitalter der digitalen Transformation stehen Bibliotheken vor der Herausforderung, ihre Prozesse und Dienstleistungen zu digitalisieren, um den veränderten Anforderungen und Erwartungen ihrer Nutzerinnen und Nutzer gerecht zu werden. Diese Masterarbeit untersucht den digitalen Reifegrad der Prozesse der Universitätsbibliothek (UB) Mannheim und adressiert dabei zwei zentrale Forschungsfragen: Wie weit fortgeschritten ist die UB Mannheim in der digitalen Prozesstransformation und wo gibt es Optimierungspotential?
Die empirische Untersuchung erfolgte durch eine schriftliche Befragung der Abteilungsleiter*innen der UB Mannheim. Als Resultat der Befragung entstand ein Prozessinventar, in dem die Prozesse der UB Mannheim mit Hilfe bestimmter Kriterien, wie z. B. Digitalisierungsgrad, Fallzahlen, Problemen und Verbesserungsvorschlägen, beschrieben sind.
Mithilfe dieses Inventars konnte der Anteil der digitalen und manuellen Prozesse der UB Mannheim bestimmt werden. Zusätzlich erfolgte eine Analyse, wie dieser Wert einzuordnen ist. So wurde auf Basis der Einträge im Prozessinventar der maximal mögliche digitale Reifegrad der UB ermittelt. Es zeigt sich, dass die UB Mannheim ihren Digitalisierungsgrad von aktuell 39% selbstständig auf bis zu 60% steigern könnte. Bei einer Zusammenarbeit mit anderen universitären Abteilungen könnte ein Digitalisierungsgrad von maximal 79% erreicht werden.
Darüber hinaus erfolgte eine Priorisierung von Prozessen mit besonders hohem Optimierungspotential, einschließlich erster Verbesserungsvorschläge. Empfehlungen für ein iteratives Vorgehen zur Prozessoptimierung unter Einbindung verschiedener universitärer Stakeholder runden diese Masterarbeit ab und bieten einen Ausblick für die UB Mannheim auf dem Weg zur digitalen Exzellenz.
Informationskompetenz stellt eine Schlüsselqualifikation dar und legt den Grundstein für den Erwerb neuen Wissens. Bibliotheken haben es sich zur Aufgabe gemacht, diese wichtige Fähigkeit zur effektiven Suche, Verarbeitung und Verbreitung von Informationen zu fördern. An der Universitäts- und Stadtbibliothek Köln findet die Vermittlung von Informationskompetenz unter anderem in der Veranstaltung „Techniken wirtschaftswissenschaftlichen Arbeitens“ statt. Welchen tatsächlichen Erfolg diese Schulung bringt, lässt sich mit gängigen Fragebogen jedoch nicht erfassen. Aus diesem Grund wurden unter Bezugnahme bereits vorhandener Untersuchungen zwei Multiple-Choice-Tests entwickelt, die von den Studierenden in elektronischer Form über das E-Learning-System der Universität Köln absolviert wurden. Dabei wurde je ein Test vor und nach Besuch des Kurses durchgeführt. Die Auswertung der Resultate zeigt, dass eine Verbesserung der Testergebnisse nach Teilnahme an der Bibliotheksveranstaltung eingetreten ist. Dies kann als Beweis für den Erfolg der Schulungsveranstaltung angenommen werden. Die Untersuchung zur Güte des entwickelten Messinstruments zeigt jedoch, dass, aufgrund nicht repräsentativer Stichprobengröße, ein weiterer Testdurchlauf stattfinden sollte, bevor das Instrumentarium in einen Regelbetrieb übergehen kann.
Digitale Repositorien – ob institutionell oder fachspezifisch – als Infrastrukturen für die Speicherung und Verfügbarmachung des wissenschaftlichen Outputs stellen seit ihren Anfängen vor über zwei Jahrzehnten eine zentrale Säule für die Wissens- und Erkenntnisproduktion dar und sind in der sich rapide ändernden Welt der wissenschaftlichen Kommunikation heutzutage nicht mehr wegzudenken. Die ersten institutionellen Repositorien, die von Universitätsbibliotheken angeboten wurden, galten der klassischen Forschungsliteratur (z.B. Journal Artikel) und anderen hauptsächlich textuellen wissenschaftlichen Beiträgen (z.B.WorkingPapers). Somit haben sich wissenschaftliche Bibliotheken von Anfang an – durch die Bereitstellung von zentralen Infrastrukturen – eine prominente Rolle bei der Sammlung, Speicherung und der Sicherstellung eines offenen Zugangs zu Forschung gesichert. Durch den kontinuierlichen Wandel der Forschungspraxen sind digitale Repositorien heute mehr denn je vor neue Herausforderungen gestellt. Durch die neu entstandenen datengetriebenen Wissenschaften und durch die stark voranschreitende Digitalisierung in Wissenschaft haben sich die Produkte der Forschung von textbasierten zu komplexen Datentypen, wie unstrukturierten Daten, Datenbanken, Multimedia-Objekten oder Digitalisaten gewandelt. Akademische Bibliotheken, die bereits eine Reihe von Basisfunktionalitäten für Forschungsdaten anbieten (z.B. PID-Vergabe, Datenpublikation oder Verknüpfung von Forschungsliteratur mit Daten) sind dennoch mit einer Fülle von technischen und organisatorischen Herausforderungen konfrontiert. Auch ergeben sich durch das schnelle Wachstum der Datenmengen, der kontinuierlichen Ausdifferenzierung der Datentypen und der Komplexität ihrer Zusammenstellung für digitale Repositorien neue Anforderungen an Metadaten, Discovery, Visualisierung oder Langfristspeicherung. Zusätzlich verschärfen Forschungsförderer und wissenschaftspolitische Gremien ihre Anforderungen an die Qualitätssicherung in der Forschung. Für Repositorien hat dies zur Folge, dass sie ihre Vertrauenswürdigkeit im Rahmen der Zertifizierung darlegen müssen und auch aktuell durch die im Jahr 2017 eingeführten FAIR Data Principles als „Framework“ für ein systematisches und nachhaltiges Datenmanagement, ihre Mission, Organisation und Technik an die neuen Gegebenheiten anpassen müssen. Die FAIR Data Principles, welche mittlerweile einen defacto-Standard des qualitätsbewussten Datenmanagements darstellen, verlangen nämlich, dass das Datenmanagement ständig darauf ausgerichtet sein soll, dass Forschungsdaten findable (auffindbar), accessible (zugänglich), interoperable (interoperabel) und reusable (nachnutzbar) gemacht werden und dauerhaft bleiben. Für die Umsetzung von FAIR im Kontext eines institutionellen Repositoriums spielen sowohl informationstechnologische, organisatorische und disziplinspezifische Aspekte eine Rolle. In dieser Masterarbeit wird der aktuelle Stand, die heutigen Herausforderungen und Anforderungen und schließlich die Möglichkeiten der Umsetzung der FAIR Data Principles in institutionellen Repositorien qualitativ anhand von Praxisbeispielen untersucht. Die disziplinspezifischen Anforderungen, vor allem in Bezug auf Open Science und Reproduzierbarkeit werden exemplarisch anhand von zwei – bewusst ausgesuchten stark datengetriebenen Fachdisziplinen – den Digital Humanities und den Computational Economics analysiert und dargelegt. In Kombination mit einer qualitativen Evaluation des institutionellen Repositoriums der Universität Bielefeld in Bezug auf FAIR Principles, ergibt sich ein großflächiges Bild über die Anforderungen, mögliche Umsetzungen und Grenzen von IRs. Basierend darauf, werden in dieser Arbeit Empfehlungen für ein FAIRes institutionelles Repositorium ausgesprochen.
Die FAIR-Prinzipien setzen sich seit ihrer Formulierung im Jahr 2016 immer mehr durch. Ihr Ziel ist, die Nachnutzbarkeit von Forschungsdaten sicherzustellen, allerdings sind es nur Leitlinien, die fachlich ausgelegt werden müssen. Wissenschaftliche digitale Editionen, die hier als Daten-Community verstanden werden, kämpfen vermehrt mit dem Problem der Nachhaltigkeit. Es wird daher untersucht, inwiefern die FAIR-Prinzipien als Leitlinien für digitale Editionen herangezogen werden können. Hierbei werden sowohl die zugrunde liegenden Daten als auch die Software in der Analyse berücksichtigt. Es zeigt sich, dass alle Facetten der Prinzipien bereits unter anderem Namen diskutiert werden, die FAIR-Prinzipien dennoch als Leitlinien für zukünftige Entwicklungen produktiv herangezogen werden können.
Sowohl Secondhand-Mode als auch Fast Fashion erfreuen sich wachsender Beliebtheit (vgl. Albrecht et al., 2022, S. 46; vgl. Statista Consumer Market Insights, 2022) – vor allem bei Frauen. Während Fast Fashion eher für Konsumlust und Schnelllebigkeit steht, verkörpert Secondhand-Mode im Kontext des kollaborativen Konsums eher nachhaltige, bewusste Konsumformen. Secondhand-Kundinnen müssen nicht nachhaltig motiviert sein, finanzielle Motive haben eine mindestens ebenso hohe Bedeutung (vgl. McNeill & Venter, 2019, S. 376). Da Fast Fashion nicht nur schnell konsumiert, sondern auch schnell entsorgt wird (vgl. G. Birtwistle & Moore, 2007, S. 211), wird es eine Zunahme von billiger Fast Fashion auf dem Secondhand-Markt geben. Angesichts dessen ist das Ziel der vorliegenden Masterthesis, die Einstellungen von Secondhand-Kundinnen gegenüber Fast Fashion zu untersuchen. Hinter den Einstellungen gegenüber Fast Fashion können auch tiefer liegende Einstellungen zum Konsum im Allgemeinen oder aktuelle Konsumtrends stehen, die sich im Modekonsum manifestieren. Die Consumer Culture Theory bildet daher den theoretischen Rahmen. Die Theorie untersucht erfahrungsbezogene und soziokulturelle Dimensionen des Konsums (vgl. Arnould et al., 2005, S. 870). Im Rahmen eines qualitativen, explorativen Forschungsdesigns werden 13 problemzentrierte Leitfadeninterviews mit Secondhand-Kundinnen geführt und mittels qualitativer Inhaltsanalyse ausgewertet. Die Einstellungen gegenüber Fast Fashion erweisen sich als überwiegend negativ, denn Fast Fashion wird häufig mit einer schlechten Qualität, Überkonsum und Schnelllebigkeit von Modetrends assoziiert. Deshalb besteht beim Neukauf ein schlechtes Gewissen, welches die Probandinnen jedoch nicht grundsätzlich von einem Neukauf abhält. Die kognitive Dissonanz zwischen der negativen Einstellung und dem eigenen Kaufverhalten löst sich durch einen Gebrauchtkauf auf, denn einem Fast Fashion-Kleidungsstück wird im Secondhand-Kontext ein zweites Leben geschenkt. Die Probandinnen hinterfragen auch über ihren Modekonsum hinaus ihr Konsumverhalten und versuchen bewusst zu konsumieren.
Non-fungible tokens (NFTs) have become a popular topic in the art world in recent years, with many museums and other cultural institutions exploring ways to incorporate them into their operations. The technology has the potential to revolutionize how museums conduct their internal business, how they collect, display, and preserve digital art, as well as how they enable engagement and an immersive experience for visitors. The research question of this paper thus addresses the significance of NFTs in the evolution of museum practices.
Using a qualitative research approach, eleven museum experts were interviewed in semi-structured interviews about the evolution, the impact and the viability of NFTs. The results of the content analysis were then summarized, interpreted, and discussed in relation to the theoretical framework, and were subsequently converted into general conclusions for the museum sector. The process resulted in relevant information about the opportunities, challenges, and strategy of museums for implementing NFTs in museum practices.
Wachsende Anforderungen, steigende Kosten und geringe finanzielle Mittel - es ist nicht gewagt zu prognostizieren, dass sich viele Bibliotheken in Deutschland auch in Zukunft diesem scheinbar ausweglosen Dilemma stellen müssen. Um die finanziellen Engpässe zu kompensieren und die wissenschaftliche Literatur- und Informationsversorgung weiterhin sicherzustellen, sind wissenschaftliche Bibliotheken gezwungen, die Grundfinanzierung aus staatlichen Zuschüssen durch private Fördermittel zu ergänzen. Doch verglichen mit öffentlichen Bibliotheken, sind alternative Finanzierungsmodelle in wissenschaftlichen Bibliotheken eher noch selten anzutreffen.
Die Masterarbeit führt in die Grundbegriffe des Fundraising ein, unterzieht ausgewählte alternative Finanzierungsinstrumente einer Vor- und Nachteilanalyse und entwickelt darauf basierend ein Vergleichsschema. Dies dient dazu, wissenschaftlichen Bibliotheken Herausforderungen, Möglichkeiten und Grenzen beim Einsatz alternativer Finanzierungsbausteine aufzuzeigen.
Ziel der Masterarbeit kann und wird dabei nicht sein, eine fertige one-fits-all-Lösung zu präsentieren, wohl aber eine Empfehlung für alternative und innovative Funding-Strategien auszusprechen.
Die Entwicklung und der Betrieb von Bibliothekssystemen ist seit den 1980er Jahren eine unabdingbare Voraussetzung für nutzerorientierte Serviceleistungen und eine effiziente Ablauforganisation in Bibliotheken. Dies gilt auch für die internationale Bibliotheksarbeit von Kulturinstituten. Dabei nehmen das Goethe-Institut und das spanische Instituto Cervantes eine besondere Rolle ein. Beide Institute unterhalten das jeweils größte internationale Netzwerk von Spezialbibliotheken mit Landesbezug. Die vorliegende Arbeit gibt einen Überblick über die Bibliotheksarbeit der beiden Institute und verfolgt das Ziel, ein Entwicklungskonzept für die Funktionalität und Struktur des Bibliothekssystems des Goethe-Instituts zu formulieren. Grundlage dafür ist eine Darstellung der Anforderungen an ein Bibliothekssystem im internationalen Kontext und eine darauf aufbauende Analyse der gegenwärtigen Anwendungen „Allegro-C“ des Goethe-Instituts und „AbsysNet“ des Instituto Cervantes. Die Ergebnisse dieser vergleichenden Analyse bilden die Basis des Entwicklungskonzepts für das Goethe-Institut.
Neue Aufgabenfelder in Bibliotheken stellen bewährte Organisationsformen auf die Probe und erfordern neue oder angepasste Strukturen und Prozesse. Am Beispiel der Reorganisation der zentralen E-Learning-Abteilung der Hochschule Bonn-Rhein-Sieg, die in die wissenschaftliche Hochschulbibliothek integriert ist, wird die Ausgestaltung und Relevanz guter Führung im Wandel erörtert. Aufbauend auf einer chronologischen Prozessbeschreibung der Reorganisation gemäß dem Phasenmodell nach Lewin wird der Veränderungsprozess anhand der Erfolgsfaktoren Person, Kommunikation, Integration, Partizipation, Re-Edukation und Vision reflektiert und analysiert. Dabei werden drei empirische Untersuchungen berücksichtigt, die sowohl die Perspektive der Abteilungsleitung und des Teams als auch die Sichtweise der in der Reorganisation neu entstandenen Rolle der Teamkoordination umfassen. Im Ergebnis werden Handlungsempfehlungen für den untersuchten Fall und Erkenntnisse über Führungskräfte in Bibliotheken dokumentiert.
Gamification ist heute allgegenwärtig. Als Grundidee aus der Wirtschaft kommend wird Gamification zunehmend auch in Bildungskontexten genutzt. Ziel dieser Arbeit ist es zu zeigen, wie eine Gamification der Angebote Öffentlicher Bibliotheken diesen die Chance bietet, dem bibliothekarischen Bildungsauftrag nachzukommen und zugleich mit zielgerichteter Öffentlichkeitsarbeit das Image Öffentlicher Bibliotheken zeitgemäß zu gestalten. Dazu wird Gamification in Abgrenzung zum einfachen Spiel als Behandlung einer ernsthaften Aufgabe im Rahmen eines Games definiert und das Konzept der Gamified Library vorgestellt. Es werden Ziele und Methoden geeigneter Öffentlichkeitsarbeit und die wichtigsten Aspekte der Bibliothekspädagogik bezüglich einer Gamifizierung bibliothekarischer Angebote zur Gestaltung eines attraktiven Lernorts erläutert. Hierbei werden die Möglichkeiten der Gamifizierung der Bibliothek auch beispielhaft hinsichtlich ihrer Rolle als Bildungspartner von Schulen erörtert. Drei Praxisbeispiele, nämlich digitale Rallyespiele, Escape Room- bzw. Breakout-Spiele sowie Librarygame als Überbau einer Gamifizierung des Nutzungskontextes der Bibliothek, werden als bereits bekannte sowie zum Teil auch etablierte Konzepte der Gamifizierung analysiert. Sie existieren bereits im Portfolio der Öffentlichen Bibliothek und sind bei Umsetzung und Anwendung bestens geeignet, bibliothekspädagogische Lehrinhalte zu vermitteln sowie erfolgreiche Öffentlichkeitsarbeit zu gestalten.
Methoden und Werkzeuge zum professionellen Umgang mit Forschungsdaten spielen
im wissenschaftspolitischen Diskurs seit einiger Zeit eine wesentliche Rolle. Adäquate
organisatorische und technische Lösungen ermöglichen die nachhaltige Sicherung,
Auffindbarkeit und Nachnutzung von Forschungsdaten. Relevante Akteure in diesem
Kontext sind neben Wissenschaftlerinnen und Wissenschaftlern, Rechenzentren und
Bibliotheken der Forschungseinrichtungen. Vielfach liegt der Fokus der Diskussion um
Forschungsdaten und Methoden des Forschungsdatenmanagements auf naturwissenschaftlichen
Disziplinen. Spezifika von Forschungsdaten der Geisteswissenschaften
divergieren jedoch substantiell von Beobachtungs- und Messdaten der Naturwissenschaften.
Diese Arbeit beschreibt einerseits beispielhaft geisteswissenschaftliche Forschungsdaten
und skizziert unterstützende Dienstleistungen wissenschaftlicher Bibliotheken
für den Forschungsprozess und die hierfür notwendigen Organisationsstrukturen.
Diese Arbeit analysiert die Publikationsmuster der deutschen Sozialwissenschaften zwischen 2001 und 2021 und zeigt, wie sich die Anteile der Publikationsformate und -sprachen über die Zeit entwickeln und wie sie sich zwischen den Fächern sowie innerhalb der Fächer unterscheiden. Mit dieser Untersuchung soll die Frage beantwortet werden, ob sich anhand der Publikationszahlen eigenständige Publikationskulturen der betrachteten Fachrichtungen Politikwissenschaft, Soziologie und Psychologie identifizieren lassen. Zudem wird analysiert, inwieweit sich die unterschiedliche methodische und nationale oder internationale Ausrichtung einzelner Fachbereiche in den Publikationsmustern widerspiegelt: Gibt es innerhalb der Sozialwissenschaften also getrennte (Publikations-)Welten? Um diese Frage zu beantworten, werden die Metadaten sozialwissenschaftlicher Publikationen analysiert, die in der Datenbank The Lens verzeichnet sind. Nach dem Abruf der Lens-Daten für alle deutschen Universitäten mit einem sozialwissenschaftlichen Fachbereich wurden diese um eine Fachzuordnung sowie eine Spracherkennung der einzelnen Publikationen ergänzt. Die Datenbearbeitung für die statistische Analyse der fast 280.000 Publikationen von 64 Universitäten erfolgte unter Zuhilfenahme der Programmiersprache Python sowie der Statistikprogramme Stata und R. Die Ergebnisse bestätigen, dass Buchpublikationen in ihren verschiedenen Formen in den Sozialwissenschaften eine signifikante Rolle spielen und über den Beobachtungszeitraum hinweg nimmt der Anteil an Buchpublikationen und anderen Publikationsformaten sogar zu. Den Großteil der Publikationen im Datensatz machen dennoch Zeitschriftenartikel aus, wozu besonders die Psychologie beiträgt. Hier dominiert zudem Englisch als Publikationssprache, während in der Soziologie und vor allem in der Politikwissenschaft häufig auch auf Deutsch veröffentlicht wird. Insgesamt nimmt der Anteil englischsprachiger Veröffentlichungen im Beobachtungszeitraum zu. Auf der Ebene der Universitäten bzw. Fachbereiche zeigen die Ergebnisse, dass es signifikante Unterschiede in den Publikationsmustern einzelner Einrichtungen gibt. Man kann also gewissermaßen tatsächlich von getrennten Welten in den deutschen Sozialwissenschaften sprechen: Das Publikationsverhalten der Psychologie setzt sich deutlich von den anderen beiden Fachdisziplinen ab, innerhalb derer sich wiederum signifikante Unterschiede zwischen den Fachbereichen zeigen. Diese Ergebnisse sind u. a. für die Publikationsberatung in den Fachdisziplinen und insbesondere an den verschiedenen Fachbereichen relevant.
Googles Accelerated Mobile Pages (AMP) : Auswirkungen für Publisher am Beispiel von RTL interactive
(2017)
Das Accelerated Mobile Pages (AMP) Projekt ist Googles Maßnahme zur Optimierung der User Experience beim Surfen mit dem Smartphone. Es legt den Fokus auf die Ladezeit von mobilen Webseiten. Publisher können das eigens entwickelte AMP-Framework nutzen, um blitzschnelle Varianten ihrer Seiten bereitzustellen. Die vorliegende Masterarbeit beschäftigt sich mit der Frage, welche Auswirkungen das Framework, zusätzlich zum Faktor Ladezeit, für Publisher hat. Konkret wurden die Vor- und Nachteile des AMP-Projekts am Beispiel des Publishers RTL interactive untersucht.
Dazu wurden zum einen Interviews mit drei Experten aus dem Unternehmen geführt und zum anderen die Entwicklung verschiedener Leistungskennzahlen aus dem Bereich der Suchmaschinenoptimierung für drei unterschiedliche Portale analysiert.
Trotz wachsender Nutzungszeiten der neuen Medien wird kein Rückgang in der Nutzung der klassischen Medien beobachtet. Die Schlussfolgerung liegt nahe, dass die Hinwendung zu Medien vermehrt hybrid anstatt exklusiv erfolgt.
Zur besseren Bearbeitung der Märkte und zur gezielteren Mediaplanung ist eine zielgruppengerechte Ansprache unumgänglich. Hierfür eignet sich das Aufteilen der Märkte in spezifische Segmente. An diesem Punkt setzt die vorliegende Arbeit an. Aufbauend auf einer qualitativen Studie von Ziems (2012) wurden in einer quantitativen Online-Befragung von 321 Personen drei Segmente zur hybriden Mediennutzung extrahiert: der stimmungsregulierende "radiolose" Hybridnutzer, der zweckorientierte Silver Surfer und der junge kommunikative Skeptiker. Dazu wurden zunächst vier Merkmale zur Einstufung der Einstellung gegenüber der Mediennutzung faktoranalytisch erhoben. Hier lassen sich die Dimensionen reduzierte Skepsis, Kommunikation, Zweckorientierung und Vernetzung unterscheiden. Gemeinsam mit einer Einstufung der Intensität der parallelen Nutzung verschiedener Medien wurden diese Faktoren in die Clusterbildung einbezogen. Anschließend wurden die gebildeten Segmente anhand soziodemografischer Variablen und der Big Five-Persönlichkeitskonstrukte beschrieben.
Bereits seit einem Jahrzehnt ersetzen bzw. ergänzen Discovery-Systeme im Zuge
stärkerer Nutzer- und Dienstleistungsorientierung herkömmliche Online-Kataloge vor
allem in Wissenschaftlichen Bibliotheken. Dem verwunderlichen Umstand, dass trotz
ähnlicher Entwicklungslinien in Öffentlichen und Unternehmens-Bibliotheken
Discovery-Systeme dort noch kaum verbreitet sind, begegnet diese Arbeit mit einer
vergleichenden Gegenüberstellung der Bedarfs- und Angebotssituation für diese beiden
Bibliothekstypen. Somit soll nicht nur Entscheidungsträgern in Unternehmens-
Bibliotheken sowie in Öffentlichen Bibliotheken eine erste Orientierung bei der
Entwicklung und Erstellung eigener Anforderungsprofile angeboten werden, sondern
auch Anbieter von Discovery-Lösungen finden in der vorliegenden Arbeit Anregungen
zur Anpassung ihrer Angebotspalette für einen bisher nur ungenügend berücksichtigten
Marktbereich.
Information literacy in secondary schools in England : challenges to implementing a teaching tool
(2017)
The skills required to become an information literate person should be taught and learned in schools from an early age on. The focus in schools lies in raising student attainment and being information literate has a positive impact on the attainment. However, the teaching of IL is often overlooked in English schools. This thesis introduces the English educational system as well as the National Curriculum and analyses the situation in English secondary schools with focus on the challenges that school librarians face when trying to provide learning opportunities to gain IL skills. Several different IL frameworks, models and standards are evaluated for their suitability as a practical teaching tool for school librarians and teachers. It is concluded that there is a need for an easy-to-use scheme that can be adopted in any secondary school in England and other countries with a similar school system. Building on the analysis of the literature a new Scheme for Teaching IL in English Secondary Schools (STILESS) as well as an exemplary lesson plan will be developed. STILESS and the lesson plan are not only a practical teaching tool but also a useful instrument to promote IL in general across schools with leadership, teachers and students.
Die seit Anfang der 1990er Jahre eingesetzten „Integrierten Bibliothekssysteme“ werden derzeit durch sogenannte Next-Generation-Bibliotheksmanagementsysteme abgelöst, die innerhalb vernetzter Strukturen ihre Dienstleistungen erbringen und in deren Online-Katalog Suchmaschinen-Technologie eingesetzt wird. Mit der Bibliothekssoftware Koha können auch Bibliotheksdienstleister wie die Büchereizentrale Schleswig-Holstein ihr Dienstleistungsangebot erweitern und modernisieren. Diese Arbeit untersucht, wie Arbeitsabläufe innerhalb der Büchereizentrale durch den Einsatz von Koha mit einem Discovery-System in den Bereichen Zentralkatalog bzw. Verbundkatalog und zentrale Erwerbung effizienter gestaltet werden können. Besonders bei der Aktualisierung des Zentralkataloges lassen sich nennenswerte Einspareffekte erzielen.
Die vorliegende Masterarbeit verschafft anhand fundierter theoretischer Konzepte und durch 16 durchgeführte tiefenpsychologische Interviews mit Jugendlichen in einem Alter von 16 bis 19 Jahren einen Überblick darüber, inwiefern die Identitätsentwicklung Jugendlicher durch Influencer beeinflusst wird. Wichtige Erkenntnisse sind u. a., dass Influencer als Meinungsführer der digitalen Medien Jugendliche insbesondere hinsichtlich ihrer Selbst- und Fremdwahrnehmung beeinflussen. Zudem konnte herausgearbeitet werden, welche Faszination hinter dem Phänomen der Influencer steckt und welche Polaritäten sowie Spannungsverhältnisse hier am Werk sind.
Gegenstand der hier vorgestellten Arbeit ist die IT-Sicherheitsbewertung integrierter Bibliotheksmanagementsysteme am Beispiel des an der Stadtbibliothek Köln eingesetzten Systems Concerto. Es werden grundlegende Merkmale von Bibliotheksmanagementsystemen sowie IT-Sicherheit behandelt. Ausgehend von den Sicherheitsstandards des BSI wird abhängig organisatorischer Gegebenheiten ein Prozess für die Bewertung des Bibliothekssystems Concerto entworfen und die Durchführung exemplarisch skizziert. Ein Zeit-Maßnahmenplan für die Umsetzung wird definiert.
Wie kann die Zusammenarbeit von Zentralbibliothek und dezentralen Campusbibliotheken an der Universität zu Köln optimiert werden? Dieser Frage geht die vorliegende Arbeit nach. Sie bewegt sich damit im Themenkomplex der Organisationsentwicklung von Hochschulbibliothekssystemen mit der hauptsächlichen Ausrichtung auf die Organisationsform der funktionalen Einschichtigkeit.
Im theoretischen Teil werden zunächst die Begrifflichkeiten Ein- und Zweischichtigkeit definiert und deren Beziehung zueinander im historischen Kontext beleuchtet. Neben der definitorischen Abgrenzung werden dann anhand von drei ausgewählten Beispielen Entwicklungen und Reorganisationsprozesse im Umbau von zweischichtigen Bibliothekssystemen analysiert und gegenübergestellt (Marburg, Heidelberg, Frankfurt). Dann wird das Bibliothekssystem der Universität zu Köln näher betrachtet. Dort ist die Dezentralität noch stark ausgeprägt: es existieren ca. 145 dezentrale Bibliotheken, sie verfügen zusammengenommen über ungefähr die Hälfte des Print-Medienbestandes im Gesamtsystem. Eine Strategie für das gesamte universitäre Bibliothekssystem zu entwickeln ist insofern schwierig, da hier unabhängige Partner in ihren Teilbereichen selbständig agieren. Mit der Gründung von gemeinsamen Fachbibliotheken wurde und wird seit längerer Zeit versucht, die unabhängigen Partner durch den Abschluss einer vertraglichen Vereinbarung zu mehr Koordination und Kooperation zu bewegen. Die Etablierung der 'Marke' gemeinsame Fachbibliothek und mit ihr die Entwicklung erkennbarer Standards im Hinblick auf Beschaffung, Katalogisierung und Zugänglichkeit ist jedoch nach heutigem Sachstand nicht umfassend geglückt. Deshalb wird im praktischen Teil der Arbeit untersucht, inwiefern es möglich ist, durch eine bestimmte Form der Kooperation – das Joint Venture – in einzelnen Bereichen systemische Verbesserungen zu erzielen, um die Forderungen der funktionalen Einschichtigkeit besser erfüllen zu können. Es werden dazu explorative Leitfadengespräche mit Experten aus zwölf Bibliotheken / Abteilungen an der Universität zu Köln geführt.
Im Rahmen der durchgeführten Evaluation wurden nur zwei bibliothekarische Arbeitsbereiche identifiziert, für die es sich lohnen könnte, universitätsweit breit angelegte Kooperationsstrategien in Form von Joint Ventures zu entwickeln. Es handelt sich hierbei um die beiden Kooperationen Zeitschriftenerwerbung und Katalog. Daran zeigt sich sehr deutlich, dass die digitale Wende zentrale Versorgungsstrukturen begünstigt. Generell ist es notwendig, die Aufgabenbereiche in den zentralen und den dezentralen Bibliothekseinheiten strategisch zu planen, damit die optimale Literaturversorgung am Campus weiterhin gewährleistet werden kann.
Konzeption eines Analyseschemas für YouTube-Videos zur Innovationsgenerierung in der Kosmetikbranche
(2019)
Trotz ausgereifter Technik scheitert die Mehrheit der Neuproduktentwicklungen am Markt. Grund hierfür ist die fehlende Fokussierung auf die Bedürfnisse und Anforderungen der Kunden im Entwicklungsprozess.
Die vorliegende Forschungsarbeit verfolgt das Ziel herauszufinden, ob sich die Analyse nutzergenerierter Beiträge auf sozialen Netzwerken dazu eignet, diese Anforderungen zu identifizieren und somit einen Beitrag zur Neuproduktentwicklung zu leisten. Dies wird exemplarisch für die Plattform YouTube am Beispiel der Kosmetikbranche durchgeführt. Auf Grundlage der Theorien der Ökonomen Clayton M. Christensen und Eric von Hippel wird hierzu eine eigene Vorgehensweise entwickelt. Es wird die Fragestellung beantwortet, welche Indikatoren das Innovationspotential von Videoinhalten auf YouTube beeinflussen. Insgesamt wurden 449 Videotitel analysiert. Durch die Analyse der Metadaten und Kategorisierung der Videos wurden übergreifende Bedürfnisse identifiziert. Diese zeichnen sich durch den Wunsch nach universeller Einsetzbarkeit der Produkte, Natürlichkeit der Inhaltsstoffe, sowie eine einfache und schnelle Anwendbarkeit aus. Indikatoren, um relevante Videoinhalte zu identifizieren, sind Nennungen rund um Inhaltsstoffe und Verpackung.
Diese Masterthesis wurde unter der Leitung von Prof. Dr. rer. nat. Matthias Fank von der Fachhochschule Köln im Zeitraum vom 02. Mai bis 22. August 2013 in dem Unternehmen Infospeed GmbH angefertigt. Der Zweitprüfer ist Dipl. – Betriebswirt Jan Krömer von Infospeed GmbH.
Bei der vorliegenden Thesis handelt es sich um eine Entwicklung eines Verfahrens zur Reichweitenmessung von Beiträgen in Blogs und auf Facebook. In vielen Unternehmen stellt die Reichweitenmessung ein wichtiges Thema dar. Doch um den Markt abbilden und auch kommerziellen Anbietern Kennzahlen und Orientierung zu bieten, wird ein transparentes, abgestimmtes Instrumentarium zur Messung und Zählung der Akzeptanz im Internet immer wichtiger.
Die für die Arbeit benötigten Kennzahlen der Reichweitenmessung in Blogs stammen aus Internetrecherchen. Lediglich die Kennzahlen für die Messung auf Facebook, die von Infospeed GmbH zur Verfügung gestellt werden, stammen dabei von wahren Facebookauftritten unterschiedlich großer Unternehmen.
Der Fokus dieser Arbeit ist die Messung von Nutzerreichweiten in Blogs und Facebook. Da diese in der Regel schwer zu erfassen sind, soll ein Verfahren für Blogs und Facebook entwickelt werden, bei dem anhand von verschiedenen Kennzahlen (PI, Google Page Rank, UU‘s etc.) ein Richtwert errechnet wird, der einen ausreichenden Anhaltspunkt über echte Nutzerreichweiten liefert.
Die Arbeit verfolgt das Ziel, durch Versuche ein geeignetes Verfahren zu erstellen, welches für die oben genannte Art von Reichweitenmessung angewendet werden kann. Dabei soll die Wirksamkeit dieses Verfahrens untersucht werden und inwieweit die Richtwerte, bspw. für Marktforschungszwecke angewendet werden können.
Es wird behauptet, dass anhand der erstellten Versuche echte Besucherkennzahlen ermittelt werden können. Im Laufe der Versuchsdurchführungen wurde jedoch herausgefunden, dass kein Verfahren entwickelt werden konnte, welches die Thesen für die Bereiche Blogs und Facebook bestätigt.
Da Betreiber von Blogs und Facebook gerne mit der Angabe von Reichweitenkennzahlen tricksen, stellt sich eine große Herausforderung bei der Standardisierung der Online-Reichweitenmessung dar. Es ist aber davon auszugehen, dass das Thema weiter an Bedeutung gewinnen wird.
Die vorliegende Arbeit behandelt die Frage, ob Geschäftsmodelle, welche kostenlosen Online-Content zu Lehrzwecken für Schüler*innen in Deutschland anbieten, nachhaltig sind. Erfolgreiche Anbieter auf dem deutschsprachigen Markt und die aktuellen Megatrends in Deutschland und global sind für das Forschungsdesign ausschlaggebend. Die dreistufige Delphi-Studie besteht aus qualitativen Expertenbefragungen, welche über eine stark strukturierte und schwach standardisierte schriftlichen Online-Befragung erhoben werden. Ziel der Delphi-Studie ist es, im Laufe der drei Befragungsrunden eine Zukunftsaussicht zu ermöglichen und Konsens unter den Befragten zu schaffen, welche sich aus verschiedenen relevanten Fachbereichen zusammensetzen. Die konkreten Fragen setzen sich zum einen aus der Seite der Nachfrage, also der Nutzung der Online-Medien, zum anderen aus der Seite des Geschäftsmodells hinter entsprechenden Medien und aus den Kriterien für die Nachhaltigkeit des Geschäftsmodells zusammen. Auch spielt die in den Medien möglicherweise integrierte KI eine Rolle. Hervorgehoben werden die vielfältigen neuen Möglichkeiten für Schüler*innen, die entsprechenden Medien zum Unterricht begleitend zu verwenden und an ihre individuellen Bedürfnisse anzupassen. Risiken werden vor allem in wirtschaftlichen und politischen Interessen der Anbieter gesehen und die Transparenz einer KI wird in diesem Kontext kritisch hinterfragt. Die Tendenz geht zu einer aus öffentlichen Mitteln finanzierten Lösung, der wirtschaftliche Nachhaltigkeit und darunter vor allem ihre Innovationsfähigkeit hinterfragt wird.
Das Ziel der vorliegenden Masterarbeit ist es, zu evaluieren, in wieweit Open Access-Repositorien in NRW die ihnen übermittelten Dateien im Rahmen der digitalen Langzeitarchivierung (dLZA) in archivtauglichen Dateiformaten speichern. Dazu wird zunächst die Datenspeicherung in der dLZA besonders im Hinblick auf Dateiformate eingeordnet. Danach wird auf Grundlage der Level of Preservation (LoP) der National Digital Steward Alliance ein Fragebogen erstellt, welcher an 21 Repositorien in NRW verschickt wird. Neben der Auswertung des Fragebogens werden auch die Webseiten der Repositorien ausgewertet, um ein möglichst vollständiges Bild der Archivierungspraktiken zu erhalten. Keines der Repositorien kann alle Kriterien des LoP „Content“ erfüllen. Es stellte sich aber heraus, dass über die Hälfte der Repositorien zumindest Teile des Bestands für die dLZA an die Deutsche Nationalbibliothek weitergeben.
Diese Masterarbeit ist für alle interessant, die sich für die Speicherung von Daten in der dLZA und deren Umsetzung in der Praxis interessieren.as Ziel der vorliegenden Masterarbeit ist es, zu evaluieren, in wieweit Open Access-Repositorien in NRW die ihnen übermittelten Dateien im Rahmen der digitalen Langzeitarchivierung (dLZA) in archivtauglichen Dateiformaten speichern. Dazu wird zunächst die Datenspeicherung in der dLZA besonders im Hinblick auf Dateiformate eingeordnet. Danach wird auf Grundlage der Level of Preservation (LoP) der National Digital Steward Alliance ein Fragebogen erstellt, welcher an 21 Repositorien in NRW verschickt wird. Neben der Auswertung des Fragebogens werden auch die Webseiten der Repositorien ausgewertet, um ein möglichst vollständiges Bild der Archivierungspraktiken zu erhalten. Keines der Repositorien kann alle
Kriterien des LoP „Content“ erfüllen. Es stellte sich aber heraus, dass über die Hälfte der Repositorien zumindest Teile des Bestands für die dLZA an die Deutsche Nationalbibliothek weitergeben.
Diese Masterarbeit ist für alle interessant, die sich für die Speicherung von Daten in der dLZA und deren Umsetzung in der Praxis interessieren.
Das Spannungsfeld von wachsenden Anforderungen bei gleichbleibenden oder sinkenden personellen und finanziellen Ressourcen sowie die Anpassung an die wandelnden strategischen Veränderungen des eigenen Unternehmens, konfrontie-ren Unternehmensbibliotheken mit großen Herausforderungen.
Das Konzept Lean Management bietet einen ursachenorientierten Lösungsansatz, der alle Bereiche des Arbeitsumfeldes einbindet. Lean Management umfasst eine Reihe von Verfahrensweisen, deren Ursprung in der Produktion (Automobilin-dustrie) liegt, und stellt die konsequente Ausrichtung auf den Kunden in den Mit-telpunkt der operativen Leistungsfähigkeit.
Diese Arbeit stellt die historische Entwicklung des Lean Management dar und be-handelt die Übertragung der Prinzipien auf Bereiche außerhalb der industriellen Produktion mit einem besonderen Fokus auf den Bereich Bibliothek und Informa-tion. Sie zeigt die Umsetzung von Lean Management in einer Unternehmensbiblio-thek exemplarisch anhand der Pharmabibliothek der Grünenthal Gruppe auf.
Lean Management erzielt eine nachhaltige Veränderung von Arbeitsprozessen nicht durch einzelne Verbesserungsprojekte, sondern verfolgt einen ganzheitli-chen Ansatz, der verschiedene Gestaltungsprinzipien einer Bibliothek gleichzeitig adressiert.
Makerspaces und Öffentliche Bibliotheken – eine Erfolgsgeschichte, die 2011 in den
Vereinigten Staaten von Amerika beginnt und sich von dort in die Welt verbreitet.
2013 erreicht sie Deutschland mit der Eröffnung des ersten Makerspace in der
Stadtbibliothek Köln. Bestückt mit dem obligatorischen 3D-Drucker, der beinah schon
zum Standardgerät eines jeden bibliothekarischen Kreativbereichs avancierte. Denn
immer mehr Bibliotheken erkennen in den nachfolgenden Jahren das Potential der
Makerspace-Idee.
Die Masterarbeit nähert sich schrittweise über den Wandel der Öffentlichen
Bibliotheken zum Lern- und Aufenthaltsort und ihren damit verbundenen vielfältigen
Funktionen dem Thema Makerspace. Nach der Schilderung seiner Geschichte in
Amerika und Deutschland werden vier Öffentliche Bibliotheken vorgestellt, die bereits
erfolgreich in dem Bereich gearbeitet haben. Ihre Angebote, Umsetzungen und
Erfahrungen dienen als Vorlage zu den Handhabungsempfehlungen für die
Stadtbibliothek Bielefeld und inspirieren gleichzeitig zu einem Konzept für die
Erweiterung des bestehenden Makerspace: Am 24. November 2017 eröffnete die
„Werkstatt“, die in Zukunft durch Maker-Aktivitäten im Bereich Musik ergänzt werden
soll.
Die Masterarbeit „Makerspace in Bibliotheken. Herausforderungen, Erfolgsfaktoren und Handlungsempfehlungen“ will anhand von Praxisbeispielen aufzeigen, unter welchen Bedingungen Makerspaces in Bibliotheken erfolgreich sein können. Dabei werden Beispiele aus wissenschaftlichen und öffentlichen Bibliotheken in Deutschland für die Analyse herangezogen. Chancen und Potentiale für Bibliotheken sollen dargelegt werden. Wesentliches Ziel ist dabei herauszustellen, wie Makerspaces langfristigen Erfolg haben können.
Grundlage für die Analyse von Makerspaces im Bibliothekskontext ist die Darstellung der Ursprünge der Maker-Bewegung, seiner Definitionen und Abgrenzungen gegenüber anderen Formen kollaborativen Arbeitens. Strömungen und Entwicklung rund um den Makerspace werden dargestellt, Gemeinsamkeiten und Unterschiede verdeutlicht.
Anhand von sechs ausgewählten Bibliotheken werden die Erfolgsfaktoren herausgearbeitet. Dazu werden ein Kriterienkatalog und ein Bewertungsschema für die Makerspaces aufgestellt und mit den Angeboten der Bibliotheken abgeglichen. Die dadurch gewonnenen Erkenntnisse zeigen die unterschiedlichen Erfolgsfaktoren der Makerspaces auf. Unterfüttert wird dies durch die Darstellung der verschiedenen Konzepte, Strategien und Umsetzungsmöglichkeiten. Gemeinsamkeiten und Unterschiede von öffentlichen und wissenschaftlichen Bibliotheken werden abgeleitet, die Frage nach Form und Ausstattung eines idealtypischen Makerspaces erörtert, etwaige Kritik und Erfolgshemmnisse dargestellt. Allgemeine Handlungsempfehlungen für Bibliotheken werden zusammengefasst, bewertet und abschließend ein Ausblick auf zukünftige Entwicklungen gegeben.
Die COVID-19-Pandemie hat die Aktivitäten rund um Makerspaces stark beeinträchtigt und teilweise zum Erliegen gebracht. Die hier gemachten Empfehlungen sind deshalb auch perspektivisch zu sehen. Es ist sogar möglich, dass die Makerspace-Aktivitäten aus der Pandemie gestärkt hervorgehen.
Die Martin-Opitz-Bibliothek in Herne ist eine Spezialbibliothek mit dem Sammelschwerpunkt deutsche Geschichte und Kultur im östlichen Europa. Ein Großteil ihrer derzeitigen Nutzer war meist noch direkt von der Vertreibung während und nach dem Zweiten Weltkrieg betroffen, diese Nutzergruppe stirbt nun jedoch langsam aus. Daher sollte die Martin-Opitz-Bibliothek (MOB) gerade für jüngere Generationen an Nutzern bekannter und attraktiver werden. Am Beispiel der MOB wird der Frage nachgegangen, wie Marketingkonzepte in erfolgreiche Marketingstrategien für Spezialbibliotheken umgesetzt werden können. Um die Grundlagen für eine Marketingstrategie zu schaffen wurde die Nutzerdatenbank und die Jahresberichte von 2000 bis 2016 der Bibliothek, das Facebook-Profil, ihr Wikipedia-Artikel, ihre Homepage und Werbematerialien ausgewertet. So konnte ein guter Überblick über die derzeitigen Nutzer und ihr Ausleihverhalten sowie darüber, wie stark die Martin-Opitz-Bibliothek mit anderen Bibliotheken und Einrichtungen im In- und Ausland vernetzt ist und wie sie sich im Internet präsentiert, gewonnen werden. Auf Grundlage dieser Daten und mithilfe unterschiedliche Analyseinstrumente wurde geklärt, welche Marketingstrategien für die MOB in Frage kommen. Dabei zeigte sich, dass ein Marketing-Mix aus Content-, Social-Media- und Guerilla-Marketing besonders vielversprechend ist, um auch gerade neue Nutzer zu gewinnen und im Idealfall langfristig an sich binden zu können.
Nachhaltigkeit nimmt in der Gesellschaft einen immer größeren Stellenwert ein. Aufgrund der rohstoffintensiven Produktion und der weiteren Verarbeitung bestehen vor allem bei Smartphones großes Potenzial für eine nachhaltigere Herstellungsweise. Die vorliegende Masterthesis beschäftigt sich mit dieser Thematik, nämlich der Nachhaltigkeit auf dem Smartphone-Markt. Die Bemühungen der großen Hersteller für eine nachhaltige Herstellung werden betrachtet und in Vergleich zum Hersteller Fairphone gesetzt. Neben dieser Betrachtung und einer Markt- und Wettbewerbsanalyse behandelt diese Arbeit weitergehend die Kaufbereitschaft für ein nachhaltiges Smartphone, um die Thematik abzurunden. Als Grundlage dienen verschiedene psychologische Konstrukte, wie die Einstellungsmessung nach Fishbein oder die TPB. Mittels einer quantitativen Online-Umfrage wurden Datensätze hierzu gesammelt. Mit der Auswertung dieser Datensätze kann die Marktsituation abschließend beurteilt werden. Außerdem kann für das Unternehmen Fairphone eine Beurteilung über dessen Chancen auf dem Smartphone-Markt vorgenommen werden.
Zentrale Ergebnisse dieser Arbeit sind, dass die großen Unternehmen den Megatrend Nachhaltigkeit erkannt haben und laut ihren Nachhaltigkeitsberichten stark an der Umsetzung arbeiten. Durch die quantitative Studie wird deutlich, dass nachhaltige Eigenschaften bei Smartphones keinen entscheidenden Kaufgrund darstellen und positive Ausprägungen bei nachhaltigen Werten nicht mit einer erhöhten Kaufbereitschaft für ein nachhaltiges Smartphone einhergehen.
Die Zukunft für Fairphone ist daher sehr unsicher und sie werden wahrscheinlich weiterhin einen Nischenmarkt betreiben.
Soziale Medien werden immer häufiger als Nachrichtenquelle verwendet, insbesondere von jungen Erwachsenen. Zudem haben – auch durch die zunehmende Popularität von Social Media – einige Menschen die Ansicht entwickelt, dass sie informiert sein können, ohne aktiv nach Nachrichten zu suchen („News-find-me“-Perception). Das Ziel der vorliegenden Arbeit ist die Untersuchung der wechselseitigen Beziehung zwischen der Höhe der Nachrichtennutzung über Social Media und der Höhe der NFM bei 18- bis 24-Jährigen. Dabei sollen beide Wirkungsrichtungen in den Blick genommen werden. Um den Einfluss von der Höhe der Nachrichtennutzung über Social Media auf die Höhe der NFM zu untersuchen, werden Incidental News Exposure und News Overload betrachtet. Damit ermittelt werden kann, welchen Einfluss die Höhe der NFM auf die Höhe der Nachrichtennutzung über Social Media hat, werden die Nutzungsmotive für den Konsum von Nachrichten über Social Media herangezogen. Im Rahmen dieser Arbeit wurde eine quantitative Online Befragung im deutschsprachigen Raum durchgeführt. Die Studie hat ergeben, dass bei jungen Erwachsenen eine höhere Nachrichtennutzung über Soziale Medien und eine höhere Ausprägung der NFM positiv korrelieren. Die Höhe der Nachrichtennutzung über Social Media hat durch Incidental News Exposure einen positiven Einfluss auf die Höhe der NFM. Über News Overload wird nur die Höhe der NFM-Dimension „Verlassen auf Peers“ positiv beeinflusst. Eine höhere Ausprägung der NFM führt wiederum dazu, dass Soziale Medien von jungen Erwachsenen noch häufiger für Nachrichten genutzt werden. Dies spiegelt sich darin wieder, dass dazugehörige Nutzungsmotive für die Nachrichtennutzung über Social Media steigen. Dafür verantwortlich sind die Dimensionen „Nicht suchen“ und „Vertrauen auf Algorithmen“. Die Ergebnisse unterstützen die Vermutung, dass es sich um ein zirkuläres Verhältnis handelt, bei dem sich die Höhe der Nachrichtennutzung über Social Media und die Höhe der NFM in beide Richtungen positiv beeinflussen.
Informationskompetenz ist eine entscheidende Schlüsselkompetenz im wissenschaftlichen und beruflichen Alltag. Die Suche und vor allem das Finden relevanter Informationen nehmen in unserer Gesellschaft immer mehr an Bedeutung zu. Deshalb sind der kompetente Umgang mit Informationen und die Aneignung von Wissen wichtige Voraussetzungen eines informationssouveränen Bürgers. Das Internet gehört zum Alltag heutiger Schüler, deren Informations- und Suchverhalten sich wesentlich verändert hat. Aufgrund der Neustrukturierung der schulischen Lehr- und Bildungspläne in den einzelnen Bundesländern Deutschlands nimmt die Einführung in das wissenschaftliche Arbeiten für Oberstufenschüler einen hohen Stellenwert ein. Bibliotheken werden als außerschulische Partner explizit angesprochen. Es wird den Fragestellungen nachgegangen, auf welche Modelle, Standards und Vereinbarungen zur Vermittlung von Informationskompetenz für Oberstufenschüler zurückgegriffen werden kann. In der Arbeit wird untersucht, welche Online-Angebote öffentliche Bibliotheken als Teaching Library für die Zielgruppe Gymnasiasten der Sekundarstufe II zur Vermittlung von Informationskompetenz auf ihren Webseiten anbieten. Anhand eines Kriterienkatalogs werden sowohl die Benutzerfreundlichkeit als auch die inhaltlichen Aspekte der Lernangebote analysiert und mit der Erwartungshaltung der Oberstufenschüler als „Digital Natives“ verglichen. Anschließend werden die Ergebnisse mit Angeboten wissenschaftlicher Bibliotheken verglichen, die spezielle Schülerseiten eingerichtet haben.
Universitäres Lernen verändert sich! An Bildungseinrichtungen aller Art schreitet der digitale Wandel immer weiter voran, gerade in der Lehre. Die Corona-Pandemie hat dies eindrücklich gezeigt und diesen Prozess möglicherweise beschleunigt. Viele Bibliotheken stehen immer häufiger vor der Herausforderung, ihre Schulungsangebote dieser veränderten Lage anzupassen. Aus dem Stand mussten viele Bibliotheken neue Konzeptionen erarbeiten, um die Präsenzlehre zu umgehen. Die Bibliotheken waren kurzfristig gezwungen, bereits geplante Veranstaltungen für die kommenden Monate auf digitale Formate umzustellen. Hier knüpft die vorliegende Masterarbeit an, in der ein Handlungsmodell zur Erstellung von Online-Tutorials erarbeitet wird. Aufbauend auf einer Auseinandersetzung mit theoretischen und definitorischen Grundlagen werden die Online-Tutorials zunächst als ein Element des E-Learnings erklärt und eingeordnet. Im Anschluss daran wird ein Handlungsmodell zur Erstellung von Online-Tutorials am Beispiel des Literaturverwaltungsprogramms Citavi dargestellt. Als Richtschnur zur Erstellung wurden neben dem sogenannten ADDIE-Modell auch andere Instruktionsdesignmodelle genutzt. Zusammenfassend kann so am Ende der Arbeit nicht nur ein Resümee deren Ergebnisse bewerten, sondern auch ein Ausblick im Gesamtkontext der digitalen Lehre in Bibliotheken gewagt werden.
Open Access beschreibt das Prinzip des ungehinderten, unentgeltlichen und freien Zugangs zu
wissenschaftlichen Informationen. Mit der Berliner Erklärung über den offenen Zugang zu
wissenschaftlichen Informationen wurde 2003 die Open-Access-Bewegung in Deutschland
initiiert. Seither unterzeichnen zahlreiche Universitäten und Forschungseinrichtungen die
Erklärung. Wie kann Open Access in einer wissenschaftlichen Institution etabliert werden?
Diese Masterarbeit widmet sich dem Thema exemplarisch an der Bundesanstalt für
Gewässerkunde (BfG). Für die BfG ist die Förderung von Open Access als
Ressortforschungseinrichtung des Bundes und in ihrer Funktion als nationales Daten- und
Berichtszentrum für Gewässer notwendig. Besonders die Gewässerkundliche Zentralbibliothek
hat als Behördenbibliothek die Aufgabe serviceorientierte Rahmenbedingungen für das Open-
Access-Publizieren aufzubauen und damit gleichzeitig die Publikationen der BfG frei
zugänglich anzubieten. Die vorliegende Arbeit hat daher ein empfehlendes Handlungskonzept
zum Umgang mit Open Access formuliert. Dazu werden die Open-Access-Bemühungen
anderer Ressortforschungseinrichtungen vergleichend analysiert und Best-Practice-Beispiele
für eine Strategie der BfG identifiziert. Auf der Grundlage dieser Analyse und den
Rahmenbedingungen der BfG wird ein Open-Access-Konzept vorgeschlagen und die
Möglichkeiten zur Förderungen des goldenen und des grünen Weges reflektiert. Insgesamt wird
besonders eine Informationsoffensive zu Open Access empfohlen, wozu mögliche
Dienstleistungen und Aufgaben für die Bibliothek zusammengestellt werden.
Demografische Veränderungen und die Errungenschaften der Medizin führen dazu, dass der Rekrutierung neuer Blutspender eine immer größere Bedeutung zukommt. Hier bietet sich Potenzial für Persuasives Design, das bereits in anderen Forschungsdisziplinen genutzt wird, um das Verhalten von Individuen zu beeinflussen. Aus diesem Grund beschäftigt sich die vorliegende Masterarbeit mit der Entwicklung und dem Testen dreier persuasiver Strategien zur Steigerung der Blutspendeintention.
Ziel der Arbeit ist es, herauszufinden, ob die persuasiven Strategien die Blutspendeintention der Zielgruppe steigern und welche der Strategien hierbei den größten Einfluss verzeichnet.
Als Methodik wurde der Mixed-Methods Ansatz gewählt. Zunächst wurden qualitative Interviews (N=5) mit der Zielgruppe (junge Erwachsene, bisherige Nicht-Spender) durchgeführt, in denen u.a. konkrete Barrieren bezüglich der Blutspende sowie mögliche Motivatoren identifiziert wurden.
Basierend auf Erkenntnissen der Literatur sowie den Ergebnissen der qualitativen Untersuchung wurde ein Prototyp einer mobilen Ansicht des DRK entwickelt. Hier wurden drei persuasive Strategien implementiert. Diese wurden anschließend in eine Online-Befragung (N=261) eingebunden.
Die Ergebnisse zeigen, dass alle drei persuasiven Strategien die Blutspendeintention der Zielgruppe steigern konnten. Die größte Wirkung erzielte hierbei Strategie 3, die auf dem Prinzip Social Proof basierte und die Vorteile des Blutspendens für den Spender selbst hervorhob. Die Forschungsergebnisse bieten einen Anhaltspunkt für die weitere Untersuchung persuasiver Strategien.
Angetrieben durch die Entwicklung zu einer On-demand-Gesellschaft und einem Arbeitnehmer-dominierenden Arbeitsmarkt verändern sich auch Strukturen und Anforderungen im Human Resource Management (HRM). Diesem angeschlossen sind jene Medien, die zur Personalbeschaffung und Stärkung der Arbeitgebermarke dienen.
Um den jüngsten Entwicklungen und Ansprüchen auf Seiten der potenziellen Mitarbeiter standzuhalten, steigen Unternehmen in den Audiomarkt ein und produzieren ihren eigenen Corporate Podcast (CP). Jobsuchende präferieren den Einblick in die Unternehmensphilosophie und -kultur im Gegensatz zur Übermittlung harter Fakten. Der Vorzug des CPs liegt speziell in der Emotionalisierung von Inhalten und ihrem Transport durch Storytelling. Auf diese Weise können Kandidaten persönlich überzeugt, gewonnen und bestenfalls langfristig gebunden werden. Die Anzahl jener Podcasts, die im Sinne des HRMs eingesetzt werden, ist vergleichsweise gering. IKEA startete mit einem solchen unter dem Titel IKEA Podcast – Deine Möglichkeiten in 2006, stellte die Veröffentlichung allerdings nach nur vier Folgen ein. Podcasting als Instrument des HRMs erweist sich als ein noch wenig erforschtes Gebiet, gleichzeitig aber auch als ein Potenzialreiches.
In Kombination mit der Überlegung eines möglichen Relaunches des CPs von IKEA zeigt sich die Notwendigkeit der Erforschung von Merkmalen, die in der Podcast-Gestaltung als erfüllt gelten sollten, um eine Positionierung als attraktiver Arbeitgeber sicherzustellen. Diese Arbeit entwickelt aufbauend auf den Anforderungen an einen CP mit HR-Hintergrund konkrete Maßnahmen, sowohl im Allgemeinen als auch im Speziellen für IKEA. Zur Ausschöpfung möglichst breiter Informations- und Inspirationsquellen wird das Benchmarking als Methodik gewählt. Der Nutzen liegt in der Vielfalt und Chance des Lernens von den Besten, indem mit dem Vergleich von Wettbewerbern Best Practices
identifiziert und auf die eigenen Strukturen übertragen werden können. Der dazu entwickelte Kriterienkatalog ist universell zur Bewertung eines solchen CPs einsetzbar, um die eigene Position und Wettbewerbsfähigkeit am Markt zu optimieren und nachhaltig zu sichern. Teil der Analyse sind folgende Unternehmen: Audi, Bertelsmann, BVA, Daimler, DHL, EDEKA, Home Depot, L’Oréal, McKinsey und Netflix. Im Ergebnis führt DHL das Ranking an, wenngleich Netflix, Daimler, EDEKA und McKinsey ebenfalls wertvolle Lösungen zeigen. Als wichtigste Erkenntnis lässt sich die bewusste inhaltliche Fokussierung eigener Werte und Gründe, die das Arbeiten und die Zugehörigkeit zum Unternehmen besonders und attraktiv machen, herausstellen. Zentrale Faktoren sind hier Authentizität, Glaubwürdigkeit und echte Einblicke in den Arbeitsalltag, die sich durch die Aufzeichnung offener Gespräche mit Mitarbeitern inkl. Storytelling realisieren lassen.
Die vorliegende Masterarbeit beschreibt Faktoren, die den Erfolg eines Beitrags in Social Media erhöhen. Dabei beziehen sich die Ausführungen auf die Veröffentlichungen von Fernsehsendungen zu politischer Satire. Dazu wurden alle Beiträge, die im November 2018 auf den Social Media Profilen von heute SHOW, Extra 3 und Neo Magazin Royale gezeigt wurden, erhoben und hinsichtlich eines Erfolgswertes analysiert. Dabei konnten Kategorien festgelegt werden, die einen Einfluss auf den Erfolgswert eines Postings haben.
Elektronische Medien stellen für Bibliotheken ein Bestandssegment mit zunehmender Bedeutung dar. Sie weisen Merkmale auf, die verschiedene Herausforderungen schaffen. Die Präsentation von elektronischen Ressourcen erfolgt in digitalen Bibliotheken, Discovery-Systemen mit einem zentralen Suchindex oder durch Ansätze der Repräsentation im Bibliotheksgebäude. Von bibliothekarischen Nachweissystemen wird erwartet, dass diese ebenso gut funktionieren wie vergleichbare Internetsuchmaschinen.
Aufgrund der großen Menge an Daten gibt es verschiedene Faktoren, die die Discoverability (Auffindbarkeit) – und damit die Nutzbarkeit – von E-Medien einschränken können, sodass Ansätze zur Verbesserung dieser eingesetzt werden müssen. In einer Reihe von Bereichen sind hier Weiterentwicklungen möglich.
Web Präsenz gestaltet das Gesamtbild eines Unternehmens im Internet und bietet zahlreiche Kanäle für Kundenkommunikationen an. Während solcher Kommunikationen entstehen enorme Mengen an von Nutzern generierten Daten, die nicht nur messbar sind, sondern dabei auch zu potenziellen Trägern von wertvollem Wissen werden. Diese Arbeit soll eine anwendungsorientierte Einführung in das Modellieren von Web-Daten mit Hilfe der Klassifikationsverfahren geben, die nach Ansicht des Autors einer der wichtigsten Verfahren der angewandten Statistik sind.