Refine
Year of publication
Document Type
- Master's Thesis (125) (remove)
Has Fulltext
- no (125) (remove)
Keywords
- Digitalisierung (7)
- Informationskompetenz (5)
- Wissenschaftliche Bibliothek (5)
- Social Media (4)
- Öffentliche Bibliothek (4)
- E-Learning (3)
- Elektronische Medien (3)
- Medienkompetenz (3)
- Nachhaltigkeit (3)
- Open Access (3)
Das Hochschulwesen und die Studienlandschaft in Deutschland haben sich in den letzten Jahren verändert, neue Zielgruppen mit neuen Informationsbedürfnissen sind entstanden. Wissenschaftliche Bibliotheken in ihrer Funktion als Informationsdienstleister reagieren auf diese Veränderungen und müssen ihre Informationsangebote und -services neuen Bedarfen anpassen.
Duale Studenten sind eine in den letzten Jahren rasant gewachsene neue Zielgruppe auf dem deutschen Hochschulmarkt. Sie absolvieren ein Studium, dessen zentrale Kennzeichen die enge Verzahnung von wissenschaftlicher Lehre an der Hochschule und praxisorientierter Ausbildung in einem Unternehmen sind. Ein duales Studium findet an zwei verschiedenen Ausbildungsorten statt, der Hochschule und dem Unternehmen. Wissenschaftliche Bibliotheken in ihrer Funktion als Informationsdienstleister stehen demnach vor der Aufgabe, Studenten dieser spezifischen Studienform bedarfsgerecht an beiden Studienorten mit Fachinformationen zu versorgen.
Vorliegende Arbeit setzt sich zum Ziel, die Informationsbedarfe dualer Studenten durch eine Informationsbedarfsanalyse zu ermitteln, um die bibliothekarischen Dienstleistungen der Bibliotheken passgenauer und besser auf die Bedürfnisse dieser spezifischen Zielgruppe ausrichten zu können. Im Mittelpunkt stehen dabei gleichermaßen das Medienangebot und Portfolio verschiedener Informationsdienstleistungen wie auch die optimale Gestaltung der Zugänglichkeit zu diesen. Am Beispiel der Dualen Hochschule Baden-Württemberg (DHBW), einem der größten Anbieter dualer Studiengänge in Deutschland, wurden Lehrende und Studenten in zwei standardisierten anonymisierten Online-Umfragen zu Informationsbedarfen im dualen Studium befragt.
Das Thema Marketing hat in den vergangenen Jahren verstärkt auch in Bibliothekseinrichtungen Einzug gehalten. Marketing-Management-Prozesse werden eingesetzt, um die Angebote und Dienstleistungen auf den Kunden auszurichten und die angebotenen Services entsprechend zu vermarkten. Die vorliegende Arbeit analysiert die Dienstleistungen der Bibliotheken der KPMG AG unter Aspekten des theoretischen und praktischen Informationsmarketings. Der theoretische Teil der Arbeit erläutert die einzelnen Phasen eines Marketing-Management-Prozesses, wobei Beispiele auf ihre Anwendbarkeit im Bibliothekswesen gegeben werden. Im praktischen Teil der Arbeit wird der Marketing-Management-Prozess auf die Gegebenheiten der Bibliotheken der KPMG AG und deren Dienstleistungen angewandt. Als Ergebnis aus der Analyse und der Bearbeitung der einzelnen Prozessphasen werden Maßnahmen genannt, die notwendig sind, um die Dienstleistungen der KPMG-Bibliotheken optimal gestalten und auf den Kunden ausrichten zu können.
Diese Masterarbeit vergleicht vier verschiedene Persistent Identifier Systeme (PI-Systeme) auf Grundlage von Kriterien systematisch miteinander. Dabei werden der Uniform Resource Name (URN) im Namensraum urn:nbn:de, das Handle-System, der Digital Object Identifier (DOI) und Archival Resource Key (ARK) für den Vergleich herangezogen. Persistent Identifier (PI) stehen im Gegensatz zu URLs speicherortunabhängig zur Verfügung und können somit dauerhaften Zugang zu digitalen Objekten gewährleisten, sodass diese nachhaltig zitierfähig sind. Als Grundlage für die Untersuchung wird der in der DIN 31646 enthaltene Kriterienkatalog verwendet. Dieser wurde mit dem Fokus auf die Langzeitarchivierung von Dokumenten erstellt. In diesem Zusammenhang sind einzelne Aspekte des Kataloges nicht oder nur sinngemäß auf einige der PI-Systeme anwendbar. Darüber hinaus ist die Funktionsweise von Resolver-Diensten von PI-Systemen ein zentraler Gesichtspunkt des Kriterienkataloges. Auf das ARK-System sind die diese Dienste betreffenden Merkmale nicht oder nur analog anwendbar, da es nicht auf dem Resolver-Prinzip beruht. Trotz dieser Einschränkungen kann ein umfassender Vergleich erfolgen. Im Wesentlichen sind alle vier PI-Systeme ausgereifte Methoden, um digitale Ressourcen dauerhaft nachzuweisen. Die zentralen Unterschiede ergeben sich vor allen Dingen aus den Zielsetzungen der PI-Systeme selbst. Bei der URN steht die Langzeitarchivierung der Ressourcen im Vordergrund. Damit erfüllt sie sie meisten Kriterien des Kataloges. Die drei anderen Systeme sind weniger auf eine Langzeitarchivierung der Objekte angelegt, als vielmehr auf einen dauerhaften Nachweis über festgeschriebene Metadatenschemen, die die PIs zitierfähig halten, selbst wenn das Objekt an sich nicht mehr existiert. Ferner gibt es Unterschiede in der technischen Umsetzung der PI-Systeme. Das Handle-System ist ein eigens entwickeltes System, worauf auch die DOI basiert. URN und ARK fußen auf der Nutzung des Domain-Name-Systems (DNS) und bauen auf ihr auf. Überdies unterscheiden sie sich in ihren Finanzierungsmodellen, wobei URN und ARK kostenfrei zur Verfügung stehen, dagegen die Nutzung von DOI und Handle mit Gebühren verbunden ist.
Die Wiederauffindung von Personen und deren Werke im Bereich der Naturwissenschaften durch Suchmaschinen, Repositorien, Internetplattformen und Bibliothekskataloge gestaltet sich für Naturwissenschaftler und Bibliotheken oft mühselig und zeitaufwendig. Als eine Ursache dafür wird die Verkürzung der Vornamen zu Initialen in Literaturangaben, Datensammlungen, Bibliothekskatalogen und sonstigen Autorenlisten angesehen, wie diese Arbeit anhand einer Erhebung im Fachpublikum nachweist. Die von Bibliotheken durchgeführten Individualisierungen, die auf den Functional Requirements for Authority Data (FRAD) beruhen, sollen diese Ursache beseitigen. Ob dieser Ansatz tatsächlich auch den Anforderungen von Naturwissenschaftlern an Personennamendatensätzen in Personennamendatenbanken entspricht, wird ebenfalls anhand der Interviewergebnisse erörtert. Als Ergebnis wird festgestellt, dass die Anforderungen der Naturwissenschaftler durch eine strenge Auslegung der Empfehlungen der FRAD weitgehend erfüllt sind. Jedoch sollten sie auch auf die Erfassung unselbstständiger Werke angewendet werden.
Das Goethe-Museum in Düsseldorf wurde 1953 auf Basis der privaten Goethe-Sammlung des Verlegers und Inhabers des Insel Verlags in Leipzig, Anton Kippenberg (1874-1950), gegründet. Die Entstehung dieser größten in privater Hand befindlichen Goethe-Sammlung aus Originalzeugnissen der Goethezeit wird durch eine Sondersammlung aus der ersten Hälfte des 20. Jahrhunderts dokumentiert, die seit vielen Jahren zum Bestand des Goethe-Museums gehört. Im Zuge einer Neuordnung wurde diese nicht erschlossene Sondersammlung als Teilsammlung in die wissenschaftliche Spezialbibliothek des Goethe-Museums eingegliedert. Die Arbeit zeichnet die Aufarbeitung dieser Sondersammlung nach. Nach der Bestandsaufnahme, einer Neuordnung und Beschreibung der in ihr enthaltenen Materialien folgt eine Analyse anhand einzelner Kriterien. Vorgestellt wird anschließend das Portal, mit dem die Sondersammlung erschlossen und sichtbar gemacht werden soll. Im letzten Kapitel wird beschrieben, welche Bedeutung die Sondersammlung für das Goethe-Museum hat, welcher Erkenntniswert heute daraus gezogen werden kann und welche Perspektiven sich durch die Nutzung ergeben.
Text Mining bietet die Möglichkeit, große Textmengen durch automatisierte Verfahren zu analysieren. Die vorliegende Arbeit beschäftigt sich mit der Anwendung und Evaluation solcher Methoden für die spezielle Textform freier Antworten aus Mitarbeiterbefragungen. Dabei werden verschiedene Techniken aus den drei Bereichen Phrasenextraktion, Sentimentanalyse und Kategorisierung dargestellt und an einer konkreten Umfrage angewendet. Die Ergebnisse werden jeweils durch Abgleich mit manuellen Ergebnissen bzw. durch manuelle Bewertungen evaluiert und die Resultate untereinander verglichen. Die genutzten Verfahren sollten ohne spezifische Trainingsdaten oder Projektinformationen anwendbar sein und sich somit auch für andere Mitarbeiterbefragungen eignen.
Die Phrasenextraktion wird auf drei verschiedene Weisen durchgeführt, wobei Part-of-Speech (POS)-Chunking, Stoppwortbegrenzung und Kookkurrenzen genutzt werden. Die Untersuchungen zeigen, dass mit dem POS-Chunking präziser die relevantesten Phrasen aus längeren Texten ermittelt werden können. Die Methode der Stoppwortbegrenzung extrahiert dagegen eine größere Vielfalt relevanter Phrasen auch aus kürzeren Texten. Manuelle Einschätzungen der Extraktionsergebnisse bewerten die Methode mit POS-Chunking am besten. Darüber hinaus wird eine automatisierte Zusammenfassung semantisch ähnlicher Phrasen durchgeführt, wodurch sich leichte Verbesserungen einiger Evaluationsergebnisse zeigten.
Für die Sentimentanalyse der freien Antworten wird eine Erweiterung eines bestehenden Verfahrens aus dem Social Media-Bereich dargestellt. Hierzu werden der Methode vier Regeln hinzugefügt, welche die Sentimentbewertung aufgrund bestimmter Syntaxformen in den freien Antworten verändern. Die Evaluation zeigt, dass drei der vier Regeln dazu beitragen, dass sich die automatisierte Bewertung manuellen Bewertungen annähert.
Die Kategorisierung wird durch die beiden Topic Modeling-Methoden Latent Dirichlet Allocation (LDA) und Non-negative Matrix Factorization (NMF) durchgeführt. NMF erreichte bei dem Abgleich mit einer manuellen Kategorisierung höhere Übereinstimmungen und zeichnete sich auch durch eine bessere Abgrenzung der Thematiken sowie eine bessere Interpretierbarkeit aus.
Die Text Mining-Methoden und deren Evaluationen werden für diese Arbeit in der Programmiersprache Python umgesetzt. Außerdem werden die Text Mining-Resultate in die Datenvisualisierungssoftware Tableau eingebunden.
In der vorliegenden Arbeit wird ein Einblick in Eignung und Unterschiede verschiedener Text Mining-Methoden in Bezug auf freie Antworten in Mitarbeiterbefragungen gegeben. Darüber hinaus wird dargestellt, dass auch spezifische Anpassungen an diese Textform möglich sind. Zusätzlich werden diverse Optimierungsansätze aufgezeigt, die den noch großen Weiterentwicklungsbedarf in diesem Bereich verdeutlichen.
Aufbau einer deutschsprachigen Community für das Bibliotheksmanagementsystem FOLIO : ein Konzept
(2017)
Seit dem Jahr 2016 evaluieren das Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) und die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG/GBV) in einem gemeinsamen Projekt das Open-Source-System FOLIO. Das Ziel ist, qualifizierte Aussagen zur funktionalen und technischen Eignung von FOLIO für den deutschsprachigen Raum zu treffen. Die Kommunikation sowie Wissensvermittlung während der Entwicklung und der Tests von FOLIO erfolgt, wie in Open-Source-Systemen üblich, primär über die Community des Systems. Allerdings ist die FOLIO-Community aus den USA für die deutschen Interessen meist nicht der adäquate Ansprechpartner, da sich die Bedürfnisse der deutschen Bibliotheken von denen in den USA unterscheiden und nur einen kleinen Teil der großen Gemeinschaft betreffen. Die Entwicklung einer FOLIO-Community für den deutschsprachigen Raum bietet Bibliotheken, die FOLIO zukünftig einsetzen werden, einen Ort, um ihre Bedürfnisse, Anliegen und Probleme zu diskutieren. Aus diesem Grund stellt die Arbeit in und mit einer eigens für Deutschland eingerichteten FOLIO-Community einen wesentlichen Aspekt im FOLIO-Entwicklungsprojekt von hbz und VZG des Projekts dar.
Ziel der vorliegenden Arbeit ist, Rahmenbedingungen sowie Faktoren für einen erfolg-reichen Aufbau und einer dauerhaften Etablierung der deutschsprachigen FOLIO-Community zu identifizieren und zu eruieren, welche Tools benötigt werden, um die Community für die Nutzer attraktiv und bedienungsfreundlich zu gestalten. Hierzu werden bereits vorhandene Communitys im Bereich des Bibliothekswesens, ausgehend von den Handlungsempfehlungen von Amy Jo Kim, Sandra Schaffert sowie Diana Wieden-Bischof, verglichen. Als Referenzmodelle dienen die Communitys des Open Source-Systems Koha, die Kuali OLE-Community sowie die FOLIO-Community aus den USA. Durch den Vergleich werden die Unterschiede sowie die Gemeinsamkeiten der einzelnen Communitys herausgearbeitet, um die gesammelten Erkenntnisse in die Konzeptentwicklung für eine deutschsprachige FOLIO-Community einfließen zu lassen.
Die Gewöhnung der Internetnutzer an den einzelnen Suchschlitz bei Google stellt Bibliotheken vor eine neue Herausforderung. Ihre Recherchewerkzeuge sind vergleichsweise kompliziert aufgebaut und für die jüngeren Internetnutzer zunehmend unattraktiv in ihrer Anwendung. Die Lösung scheint in Discovery-Systemen zu liegen, nicht nur aufgrund größerer inhaltlicher Angebote, sondern auch hinsichtlich ihrer Anwendung mit nur einem Suchschlitz. Die Bayerische Staatsbibliothek (BSB) stellt eine Teillösung bereit. Ihr Discovery-System Primo Central der Firma ExLibris bietet die Suche sowohl über mehrere Suchparameter als auch über einen Suchschlitz an. Die Suchergebnisse präsentiert es in drei Reitern, zusätzlich verfügt es über die Möglichkeit zu selektieren. Ziel der folgenden Arbeit ist die Prüfung der Usability des Discovery-Systems der Bay-erischen Staatsbibliothek anhand von zwei Tests, der Heuristischen Evaluation und des nutzerorientierten Usability-Tests sowie die Zusammenführung der daraus entstehenden Erkenntnisse. Es kristallisiert sich heraus, dass die neue Form der Suche in vielen Teilen attraktiv ist, jedoch Mängel hinsichtlich der Benutzerfreundlichkeit offensichtlich sind. Das im Pilotbetrieb an der BSB gestartete System Yewno Discover ist ebenfalls Bestandteil der Usability-Prüfung und zeigt sich als sinnvolle Ergänzung der aktuellen Suchsysteme.
Die Technische Hochschule Köln betreibt derzeit drei Repositorien. Die inhaltliche Verwaltung
von Cologne Open Science und ePublications wird von der Hochschulbibliothek
vorgenommen; PubLIS Cologne hingegen vom Institut für Informationswissenschaft.
COS wurde mit dem DINI-Zertifikat 2013 ausgezeichnet. Doch das aktuellere DINI-Zertifikat
aus dem Jahre 2016 stellt neue Mindestanforderungen an Repositorien. Diese Arbeit
untersucht, welche Veränderungen an den Repositorien vorgenommen werden
müssten, um das aktuelle DINI-Zertifikat 2016 zu erhalten und gibt weitere Empfehlungen,
wie die TH Köln ihre Repositorien zukunftsweisend ausbauen sollte.
Achtsamkeit ist weitaus mehr als ein kurzweiliges Trendmomentum der heutigen Zeit. Die über 2000 Jahre alte buddhistische Tradition ist in den 1950er-Jahren in Form von Meditationstechniken in die westliche Welt eingezogen und gewinnt seither stetig an Relevanz. In Großbritannien ist Achtsamkeit ein Pflichtfach an Schulen und wird ab der Grundschule unterrichtet. Deutsche Schulen ziehen mit vereinzelten Pilotprojekten nach, die wissenschaftlich begleitet werden und erste positive Entwicklungen feststellen. Praktizierte Achtsamkeit hilft Menschen dabei, sich selbst zu finden und mit der Informationsdichte der heutigen Zeit umzugehen. Das Ziel dieser Masterarbeit ist es zu bestimmen, welchen Einfluss achtsamkeitsbasierte meditative Einheiten auf die bewusste Wahrnehmung des gegenwärtigen Moments bei 20- bis 30 Jährigen im digitalen Zeitalter haben. Anhand einer quantitativen Vorher-Nachher-Untersuchung wird analysiert, inwiefern ein zehntägiges achtsamkeitsbasiertes Interventionsprogramm das Bewusstsein für den gegenwärtigen Moment und weitere Parameter wie die der Dankbarkeit beeinflussen kann. Im Anschluss wird durch qualitative Interviews ergründet, wieso es zu den gemessenen Veränderungen im Laufe des Interventionsprogramms gekommen ist.
Der Mixed Methods Ansatz wird gewählt, um neben aufgestellten forschungsleitenden Unterfragen die folgend ausformulierte Hauptforschungsfrage FF1 zu beantworten: „Welchen Einfluss haben achtsamkeitsbasierte meditative Einheiten auf die bewusste Wahrnehmung des gegenwärtigen Moments bei 20- bis 30-jährigen im digitalen Zeitalter?“. Zentrale Ergebnisse dieser Arbeit sind, dass das Ausüben achtsamkeitsbasierter meditativer Einheiten messbaren Einfluss auf das Bewusstsein für den gegenwärtigen Moment sowie auf die Parameter der Achtsamkeit und Dankbarkeit haben.
Marken durchdringen die Öffentlichkeit, indem sie Personen, Organisationen, Dienstleistungen, Unternehmen und Produkte repräsentieren. Jede Marke verkörpert folglich ein Markenobjekt oder einen Markenabsender. Trotz der Vielzahl an Markenobjekten, setzt sich jede Marke aus den gleichen Komponenten zusammen: Eine formale Markierung in Form eines Namens oder eines Schriftzugs grenzt die Marke zu anderen Marken ab. Neben dieser Differenzierung besteht eine Marke vor allem aus der inhaltlichen Perspektive: Jeder Markenabsender sendet ein Selbstbild aus, das seine Identität verkörpert. Diese Inhalte und Informationen der Marke werden von den Markenrezipienten wahrgenommen und verarbeitet und auf Basis von Erfahrungen, Empfindungen und Voreinstellungen verarbeitet. Daraus entwickelt sich ein externes Bild der Marke, das Fremdbild oder Image. Aus diesem Zusammenspiel zwischen gesendetem Selbstbild und wahrgenommenem Fremdbild entwickelt sich der Wert einer Marke. Je mehr die interne und externe Perspektive dabei übereinstimmen, desto besser und stabiler ist der Markenwert zu beurteilen: Die Markeninhalte sind bei den Markenrezipienten verankert, werden von ihnen akzeptiert und vielleicht in der Öffentlichkeit vertreten.
Auf diese Weise entwickelt sich jede Marke. Zeitgleich gibt es relevante Unterschiede, die es in der jeweiligen Markenbewertung zu beachten gilt: Treten Unternehmen als Marken auf, dann sind es das Leitbild und die Unternehmensvision, die die Identität der Marke prägen. Als Markenabsender tritt die Gruppe hinter der Marke auf, also die Unternehmensvertreter wie Management und Mitarbeiter. Zudem ist der Markt relevant, auf dem die Marke auftritt. Im Business-to-Business-Geschäft überzeugen vor allem die Faktoren Risikoreduktion und Informationseffizienz einer Marke.
Diese theoretischen Grundlagen behandelt die Master-Thesis „Behind-the-brand. Welche Treiber bestimmen die externe Markenwahrnehmung? Eine Analyse vom Selbst- und Fremdbild eines B-to-B-Unternehmens.“ und sie setzt in Relation zu einer praxisorientierten Untersuchung: Der Markenwert eines B-to-B-Marken-Unternehmens im Spannungsfeld zwischen aufgestelltem Selbstbild und attestiertem Fremdbild aus Kundensicht. Zudem sollen relevante Faktoren aufgedeckt werden, die diesen Markenwert wiederum beeinflussen – ob stärken oder schwächen. Am Ende steht der Wert der Marke und des Unternehmens.
In den letzten Jahren haben immer mehr sprachbasierte User Interfaces (Voicebots) Einzug in den Kundenservice von Unternehmen gefunden. Der aktuelle Entwicklungsstand dieser Technologien ist zum jetzigen Zeitpunkt allerdings noch nicht weit genug ausgereift, um zu jeder Zeit eine stabile Systemperformance zu bieten. Insbesondere bei der Spracherkennung und -verarbeitung kommt es zurzeit noch vermehrt zu technischen Problemen, die zur Frustration der Kunden führen können und die es daher unbedingt zu vermeiden gilt. Die vorliegende Arbeit befasst sich mit der Fragestellung, wie trotz schlechter Usability ein möglichst positives Nutzererlebnis gewährleistet werden kann und untersucht den Einsatz von Humor als Frustrationsbewältigungsstrategie. Dazu wurde ein Wizard-of-Oz-Experiment mit fünfzehn Testpersonen durchgeführt, in dem eine für einen Kundenservice typische Unterhaltung zwischen einem Menschen und einem Voicebot simuliert wurde. Um den Einfluss des Humors auf das Nutzererlebnis der Testpersonen besser evaluieren zu können, wurden diese in zwei Gruppen eingeteilt.
Während mit der Kontrollgruppe das Experiment mit einem neutralen Voicebot durchgeführt wurde, sprach die Humorgruppe mit einem humorvoll gestalteten Voicebot. Im Anschluss an das Experiment wurden qualitative Interviews mit den Testpersonen zu ihrem wahrgenommenen Nutzererlebnis geführt. Die Interviews wurden im Nachgang mithilfe der Qualitativen Inhaltsanalyse nach Mayring ausgewertet. So wurden die gewonnenen Erkenntnisse aus den beiden Gruppen miteinander verglichen und evaluiert, inwieweit der Einsatz von Humor das Nutzererlebnis mit einem solch aufgabenorientierten Voicebot beeinflusst. Es zeigte sich, dass Humor im vorliegenden Anwendungskontext mit Vorsicht einzusetzen ist. Zwar kann Humor unter gewissen Voraussetzungen zur Verbesserung des Nutzererlebnisses beitragen, er kann jedoch auch eine zusätzliche Verschlechterung des Nutzererlebnisses zur Folge haben.
Heute gestalten Unternehmen aktiv die Erfahrungen ihrer Kunden über das Experience Management und begeistern ihre Kunden. Die Forschung hingegen benötigt noch die theoretische Grundlage in diesem Themengebiet. Insbesondere das Zusammenspiel von Brand Experience und Kundenbegeisterung wurde noch nicht empirisch untersucht. Um diese Forschungslücke zu schließen, wurde in der vorliegenden Arbeit ein zu testendes Modell aufgestellt, das den Zusammenhang von Brand Experience, Kundenbegeisterung und Kundenbindung (Wiederkaufsabsicht und Weiterempfehlungsbereitschaft) beschreibt. Um diese Wirkungskette empirisch testen zu können, wurde eine Online-Befragung durchgeführt. Für die Studie wurden zwei Sportartikelmarken ausgewählt: Nike und Jack Wolfskin. Insgesamt konnten 950 Personen befragt werden, darunter 700 Nike Käufer und 250 Jack Wolfskin Käufer. Die Ergebnisse der Studie zeigen, dass es einen Zusammenhang von Brand Experience, Kundenbegeisterung und Kundenbindung gibt. Brand Experience hat einen positiven Effekt auf die Kundenbegeisterung. Des Weiteren hat die Kundenbegeisterung einen positiven Effekt sowohl auf die Wiederkaufsabsicht als auch auf die Weiterempfehlungsbereitschaft. Außerdem ist der Effekt von der Brand Experience auf die Kundenbindung, mediiert durch die Kundenbegeisterung, positiv. Auf Grundlage der Ergebnisse werden Implikationen für die Forschung und das Management aufgezeigt.
Das Briefing ist eine Schlüsselstelle in jedem Marktforschungsprozess. Fehler oder Ungenauigkeiten, die hier verortet sind, können ein gesamtes Projekt irreversibel negativ beeinflussen. Dennoch ist insbesondere für Auftraggeber der Marktforschung nicht immer ersichtlich, wie sie den Briefingprozess zielführend gestalten können, konstruktiver Austausch wird mitunter durch Abhängigkeiten und Autoritätsgefälle gehemmt. Ziel dieser Arbeit ist es, den Briefingprozess für Marktforschungsprojekte zu untersuchen und genauer zu beschreiben. Auf diese Weise soll zwischen Auftraggeber und Auftragnehmer mehr Transparenz geschaffen und eine Basis für Selbsteinschätzung und Optimierung geboten werden. Leitende Fragen befassen sich dabei mit Form, Inhalten, Richtlinien, Vorgaben und Standards, sowie Problemquellen und Erfolgsfaktoren. In einer qualitativen Vorstudie wurde das Thema Briefing in teilstrukturierten Leitfadeninterviews exploriert und so Themenschwerpunkte und Hypothesen abgeleitet. Auf Basis dessen wurde eine Online-Umfrage durchgeführt. Teilnehmer waren in beiden Teilstudien betriebliche Marktforscher, Institutsmarktforscher und Marketer. Insgesamt unterstreichen die Ergebnisse die Relevanz eines durchdachten Briefings. Es wird deutlich, dass Form und Anzahl der Briefings sowie Richtlinien, Vorgaben und Standards für einen erfolgreichen Briefingprozess eine untergeordnete Rolle spielen, während Art und Häufigkeit der Kommunikation zwischen Auftraggeber und Auftragnehmer und die Qualität der übermittelten Informationen als ausschlaggebend betrachtet werden. Strukturiertheit und Umfang von Informationen sind häufig nicht ausreichend, bei der nachträglichen Strukturierung und Recherche nach fehlenden Informationen geht gerade im Angebotsprozess wertvolle Zeit verloren. Um dies zu umgehen, wird oft auf bereits bekannte Projektpartner gesetzt. Eine allgemeine Empfehlung an Auftraggeber lautet daher, mehr Zeit und Aufwand in die Briefingerstellung zu investieren. So wird beispielsweise die frühzeitige interne Abstimmung des Vorhabens mit relevanten Stakeholdern als zentral angesehen, um die Voraussetzung für eine reibungslose Informationsübermittlung zu schaffen. Auftragnehmer wiederum können durch häufige und gezielte Nachfragen zum Briefing Missverständnissen und Fehlern frühzeitig vorbeugen.
Non-Profit-Organisationen befinden sich derzeit in einer Gesellschaft, die durch funktionsübergreifendes Arbeiten und schnelle Technologiewechsel gekennzeichnet ist. Wettbewerb, Trends und ein sich veränderndes Nutzerverhalten im Internet, erfordern einen Strukturwandel in der Medienkommunikation. Um heterogene Zielgruppen zu erreichen wird es für Non-Profit-Organisationen immer wichtiger ihre Sprache zu sprechen und ihre Kommunikationstechnologien zu beherrschen. Der Kunde von heute setzt sich aktiv mit Produkten, Angeboten und Dienstleistungen über Foren und Blogs auseinander. Daher müssen Werbemaßnahmen eingesetzt werden, die das entsprechende Nutzungsverhalten aufgreifen. Mit Inbound-Marketing steht ein Marketingprozess zur Verfügung, der auch Kunden einer Non-Profit-Organisation im Kontext einer Content-Marketing-Strategie durch informierende und emotionalisierende Inhalte begeistern und überzeugen kann. Konnten Kunden erfolgreich gewonnen werden, ist die Grundlage eines effektiven Content-Marketings und einer zukunftsweisenden zielgruppenspezifischen Marketingarbeit hinsichtlich kundenspezifischer Medienkanäle, der Erhöhung von Rückverweisen zu einer Webseite im Bereich der Suchmaschinenoptimierung und Mund-zu-Mund-Propaganda gelegt.
In der heutigen Gesellschaft streben Menschen in ihrem Leben vermehrt nach facettenreichen Erlebnissen, die emotional, kognitiv aber auch körperlich oder sensorisch ansprechend sind. Dies spielt insbesondere im Rahmen des Konsumverhaltens eine wichtige Rolle. Kunden und Kundinnen erwarten aufregende und stimulierende Erlebnisse. Hierdurch haben sich sowohl die Wissenschaft als auch die Unternehmenspraxis verstärkt dem Kundenerleben (der Customer Experience) zugewandt. So wurde versucht, die das Kundenerleben bestimmenden Wirkmechanismen zu verstehen, Möglichkeiten zu analysieren, um die Customer Experience gestalten zu können und das Kundenerleben ganzheitlich zu orchestrieren. Aber trotz intensiver wissenschaftlicher sowie unternehmerischer Befassung mit diesem Themenkomplex, existieren noch Lücken und offene Fragen, die durch weitere Forschung beantwortet werden müssen, wenn man das Customer Experience Forschungsfeld auf einen höheren Reifegrad bringen will.
Das Ziel dieser Masterthesis besteht daher darin, durch eine nuancierte Untersuchung (relevanter) Antezedenzien und Konsequenzen, das nomologische Netzwerk der Customer Experience zu erweitern und einen Beitrag zum Ausbau sowie zur Validierung des aktuellen Wissensstands zur Customer Experience zu leisten. Schwerpunktmäßig wird dabei die Frage untersucht, welche Wirkungsbeziehungen sich jeweils zwischen dem Customer Involvement als intrapersonellem Einflussfaktor, der Einfachheit als Angebotsmerkmal, der Customer Experience und dem Customer Commitment als evaluativem Outcome identifizieren lassen.
Um die Forschungsfragen zu beantworten, wurde auf Basis theoretischer und empirischer Erkenntnisse ein mehrdimensionales Customer Experience Modell als Rahmen für die empirische Forschung konzipiert. Basierend hierauf wurde eine Customer Experience Messung in Echtzeit, d. h. unmittelbar nach der Erlebnisinteraktion einer Customer Journey, im Rahmen einer quantitativen Online-Befragung in einem Unternehmen der Telekommunikationsbranche, durchgeführt.
Durch die empirische Untersuchung konnte Einfachheit als Einflussfaktor für die Customer Experience sowie das Customer Commitment bestätigt werden. Während Einfachheit die Customer Experience sowie zwei der untersuchten Customer Commitment-Dimensionen (affektives Commitment, normatives Commitment) beeinflusst, besitzt es auf eine der untersuchten Dimensionen (habituelles Commitment) einen negativen Effekt. Die Customer Experience fungiert dabei als wichtiger Mediator zwischen Einfachheit und Customer Commitment und wirkt darüber hinaus als sechsdimensionales Konstrukt facettenreich auf die einzelnen Customer Commitment-Dimensionen ein. Customer Involvement konnte – als Konstrukt erster Ordnung – nicht als Einflussfaktor bestätigt werden, jedoch ließ sich feststellen, dass sich der Indikator für die wahrgenommene Wichtigkeit positiv auf das Kundenerleben sowie das Customer Commitment auswirkt.
The purpose of this research lies in uncovering the participants emotions when watching a personalized advertisement on the social media Instagram. This is of use to the marketing and psychology research community to discover more on consumer behavior and the controversy between privacy concerns and usefulness of advertisement personalization. The research question reads: “Does the use of personalization on social media advertisements incite (1) a change in the emotional state and (2) recall capability of German Instagram users aged 18-30 that diverges from the psychophysiological parameters measured by exposing these users to the same advertisements without personalization?”
Psychophysiological tests are used in combination with two self reported questionnaires that assess the participants positive and negative effect and the recall and recognition differences between the group given personalized stimuli including the participants name, location, and activity and the one group given impersonalized ones. The sample consists of n=31 German-speaking participants between the age of 18 and 30.
The results, although not all of statistic relevancy of α=0,05, show a trend that personalized advertisements instigate more positive valence and activation as not personalized stimuli. No significant or trending difference was found to the recall and recognition capabilities of the two groups.
Der immer schnellere voranschreitende technische Fortschritt zieht auch in der täglichen Arbeit der nationalen wissenschaftlichen Bibliotheken einen Strukturwandel mit sich. Besonders spürbar sind die Veränderungen bei der komplexen Verwaltung von erworbenen elektronischen Ressourcen, sprich Datenbanken, E-Journals oder E-Books. Vor allem im Bereich der konsortialen Arbeit und der dort stattfindenden Zusammenarbeit zwischen den wissenschaftlichen Bibliotheken und den bundesweit angesiedelten Konsortialstellen, existieren bisher noch keine adäquaten Abläufe beim Management der lizenzierten E-Ressourcen. Das Nachhalten aller relevanter LizenzInformationen, wie beispielsweise Kosten, Lizenz- und Archivzeiträume, Titellisten oder Nutzungsstatistiken, für die vielfältigen elektronischen Ressourcen wird immer komplexer und somit wird es schwieriger, die Ressourcen zentral und transparent zu verwalten. Als Lösung zur Schließung dieser momentan bestehenden Lücke der Verwaltung von E-Ressourcen im Konsortialbereich, wird das Electronic Resource Management System LAS:eR vorgestellt, welches speziell für das Management aller konsortialer Handlungsbedarfe im Bereich E-Ressourcen entwickelt wurde. Anhand von LAS:eR wird verdeutlicht, wie zukünftig die Workflows zwischen den deutschsprachigen Konsortialstellen und den nationalen wissenschaftlichen Bibliotheken deutlich optimiert werden können und dadurch bundesweit Veränderungen in der Konsortialarbeit angestoßen werden können.
Junge, heranwachsende Menschen weisen ein besonders auffälliges Bewegtbildnutzungsverhalten auf. Die vorliegende Arbeit liefert einen Beitrag dazu, dieses Verhalten besser zu verstehen. Zwar existieren bereits einige Studien, die sich mit diesem Thema auseinandersetzen, diese dienen jedoch eher der quantitativen Beschreibung des Verhaltens und tragen recht wenig dazu bei, das Verhalten zu verstehen. In der vorliegenden Arbeit wird das Bewegtbildnutzungsverhalten junger Menschen deshalb im Sinne eines besseren Verständnisses empirisch untersucht. Das Thema Video on Demand findet dabei als für diese Altersgruppe potenziell sehr attraktiver Beschaffungsweg besondere Berücksichtigung. In der Vorbereitung des empirischen Teils der Arbeit werden zunächst die Begriffe Bewegtbild und Video on Demand umfassend erklärt, grundlegende Erkenntnisse der Konsumentenverhaltensforschung dargelegt und der aktuelle Stand der Forschung aufgearbeitet. Den Schwerpunkt dieser Arbeit bildet die anschließende qualitative Befragung von insgesamt 16 Probanden im Alter zwischen 14 und 29 Jahren. Diese Probanden wurden ausführlich zu verschiedenen Aspekten ihres Bewegtbildnutzungsverhaltens interviewt und die Ergebnisse unter Anwendung der qualitativen Inhaltsanalyse nach Mayring systematisch ausgewertet und strukturiert.