Master's Thesis
Refine
Year of publication
Document Type
- Master's Thesis (276) (remove)
Keywords
- Informationskompetenz (11)
- Digitalisierung (9)
- Öffentliche Bibliothek (9)
- Wissenschaftliche Bibliothek (8)
- Hochschulbibliothek (6)
- Open Access (6)
- Kooperation (5)
- Marktforschung (5)
- Nachhaltigkeit (5)
- Social Media (5)
Die vorliegende Arbeit nähert sich dem Thema des Scheiterns als Lerngelegenheit in mehreren Schritten. Zunächst werden in Kapitel 2 die angewendete Methode der wissenssoziologischen Diskursanalyse und die daraus abgeleiteten Forschungsfragen beschrieben. Es wird die
Vorgehensweise bei der Diskursanalyse dargelegt, ebenso wie die Bildung eines Textkorpus zur Analyse begründet. Darüber hinaus wird anhand von Ansätzen der Wissenssoziologie beschrieben, warum diese Methode bei der Untersuchung des Scheiterns als Lerngelegenheit in bibliothekarischen und archivarischen Fachdiskursen gewählt wurde.
In Kapitel 3 findet eine Eingrenzung des Themenfeldes statt. Zunächst werden in Kapitel 3.1 deutsch- und englischsprachige Begriffe genannt, die Scheitern beschreiben. Diese wurden zur Recherche nach Diskurselementen verwendet bzw. bei der Recherche aufgefunden und dann in die weitere Suche übernommen. In Kapitel 3.2 wird erläutert, von welchem Verständnis der durchgehend verwendete Community-Begriff in dieser Arbeit ausgeht und welche die untersuchten Bibliotheks- und Archivfachcommunities sind. Hier werden zudem die Rechercheinstrumente und Informationsquellen genannt, die zur Bildung des Textkorpus verwendet wurden. In Kapitel 3.3 wird der Stand der Auseinandersetzung mit dem Scheitern als Lerngelegenheit in den Bibliotheks-, Informations- und Archivwissenschaften beschrieben.
Bei der Recherche zum Thema wurde ebenso deutlich, dass ein großer Teil der Publikationen zum Scheitern als Lerngelegenheit im Rahmen von sozial- und wirtschaftswissenschaftlichen Fragestellungen entstanden ist. Daher wird in Kapitel 3.4 auch der Stand der Auseinandersetzung in diesem Bereich skizziert und den Bibliotheks-, Informations- und
Archivwissenschaften gegenübergestellt.
Kapitel 4 analysiert den zusammengestellten Textkorpus unter mehreren
Gesichtspunkten, um die in Kapitel 2 formulierten Forschungsfragen bearbeiten zu können. Zunächst wird das verwendete Textkorpus beschrieben. Tabelle 1 im Anhang listet dabei alle aufgefundenen Aussageereignisse auf. Abbildungen 1, 2 und 5 bis 11 enthalten die für die Diskursanalyse relevanten Aussagen aller untersuchten Texte in Form von Mindmaps. Anhand dieser Visualisierungen folgt in Kapitel 4.2 die Auseinandersetzung mit der Frage, warum über das Scheitern gesprochen wird. So werden anhand des Textkorpus Arbeitsbereiche genannt, in denen gescheitert wird (4.2.1), sowie die Haltung gegenüber dem Scheitern erläutert (4.2.2). Es werden Erklärungen für das Scheitern beschrieben (4.2.3) und schließlich die Zielsetzungen derjenigen, die über das Scheitern sprechen und schreiben (4.2.4). Kapitel 4.3 erläutert, wer die Träger:innen und Adressat:innen der Aussageereignisse im Rahmen des Diskurses sind (4.3.1) und ob sich Beziehungen zwischen jenen oder Verweise zwischen Publikationen ausmachen lassen (4.3.2). Kapitel 4.4 geht anschließend darauf ein, wie der Diskurs über das Scheitern geführt wird, welche Strukturen sich ausmachen lassen und welche markanten sprachlichen und symbolischen Mittel verwendet werden. Abschließend wird in Kapitel 5 Fazit gezogen und geschildert, welche Schlüsse und welchen Ausblick die Analyse erlaubt.
Das Hochschulwesen und die Studienlandschaft in Deutschland haben sich in den letzten Jahren verändert, neue Zielgruppen mit neuen Informationsbedürfnissen sind entstanden. Wissenschaftliche Bibliotheken in ihrer Funktion als Informationsdienstleister reagieren auf diese Veränderungen und müssen ihre Informationsangebote und -services neuen Bedarfen anpassen.
Duale Studenten sind eine in den letzten Jahren rasant gewachsene neue Zielgruppe auf dem deutschen Hochschulmarkt. Sie absolvieren ein Studium, dessen zentrale Kennzeichen die enge Verzahnung von wissenschaftlicher Lehre an der Hochschule und praxisorientierter Ausbildung in einem Unternehmen sind. Ein duales Studium findet an zwei verschiedenen Ausbildungsorten statt, der Hochschule und dem Unternehmen. Wissenschaftliche Bibliotheken in ihrer Funktion als Informationsdienstleister stehen demnach vor der Aufgabe, Studenten dieser spezifischen Studienform bedarfsgerecht an beiden Studienorten mit Fachinformationen zu versorgen.
Vorliegende Arbeit setzt sich zum Ziel, die Informationsbedarfe dualer Studenten durch eine Informationsbedarfsanalyse zu ermitteln, um die bibliothekarischen Dienstleistungen der Bibliotheken passgenauer und besser auf die Bedürfnisse dieser spezifischen Zielgruppe ausrichten zu können. Im Mittelpunkt stehen dabei gleichermaßen das Medienangebot und Portfolio verschiedener Informationsdienstleistungen wie auch die optimale Gestaltung der Zugänglichkeit zu diesen. Am Beispiel der Dualen Hochschule Baden-Württemberg (DHBW), einem der größten Anbieter dualer Studiengänge in Deutschland, wurden Lehrende und Studenten in zwei standardisierten anonymisierten Online-Umfragen zu Informationsbedarfen im dualen Studium befragt.
Bei der Auswahl eines Bibliothekssystems müssen spezifische Anforderungen für jede Bibliothek gesondert ermittelt werden. Bereits in der Vergangenheit wurden Anforderungskataloge formuliert, die als Orientierungshilfen bei der Auswahl und Evaluation von Bibliothekssystemen genutzt werden. Hauptgegenstand dieser Masterarbeit ist eine Zusammenstellung allgemeiner und funktionaler Anforderungen, die gegenwärtig und zukünftig an Bibliothekssysteme gestellt werden können. Vor dem Hintergrund aktueller Entwicklungen, wie der zunehmenden Digitalisierung von Informationen, ebenso den Möglichkeiten des Web 2.0 und deren Auswirkungen auf die Gestaltung von Bibliothekskatalogen, werden Anforderungen formuliert. Die Entwicklung von Bibliothekssystemen, gegenwärtig geprägt durch den Einsatz von integrierten, geschlossenen Systemen hin zu webbasierten, modu-lar aufgebauten Systemen, wird aufgezeigt. Die Masterarbeit wird als Weiterentwicklung bereits vorhandener Anforderungskataloge verstanden. Die Ausarbeitung richtet sich an Entscheidungsträger in One-Person Libraries und Öffentlichen Bibliotheken der ersten Stufe, für die es aufgrund ihrer geringen personellen Ausstattung schwierig ist, zeitliche Ressourcen für die Auswahl eines Bibliothekssystems zu erübrigen. Ziel ist es ein praxisorientiertes Arbeitsinstrument für diesen Personenkreis zur Verfügung zu stellen.
Die aktuelle Fleischproduktion durch Tierhaltung sowie der wachsende Fleischkonsum haben negative Auswirkungen auf die Umwelt, die menschliche Gesundheit und das Wohl der Tiere. Die Reduktion des Fleischkonsums kann durch Alternativprodukte erleichtert werden. Da Konsumierende jedoch mit den bereits existierenden pflanzlichen Alternativprodukten nicht vollkommen zufrieden sind und auch auf insektenbasierte Alternativprodukte eher mit Ablehnung reagieren ergibt sich der Bedarf an weiteren Alternativen zu forschen. Cultured Meat wird von seinen Produzenten, Investoren und Befürwortern als eine mögliche technologische Alternative zu konventioneller Fleischproduktion präsentiert, die unter anderem umweltfreundlicher, tierfreundlicher, gesünder und sicherer sein soll. Neben den Fragen nach dem tatsächlichen Potenzial von Cultured Meat und der Umsetzbarkeit einer Produktion im industriellen Maßstab, stellt sich die Frage inwiefern Konsumierende Cultured Meat als Lebensmittel und Ersatz für konventionelles Fleisch akzeptieren würden. Um die Akzeptanz der Konsumierenden erfassen zu können ist ein Befragungsinstrument erforderlich. Das Ziel dieser Arbeit besteht darin theoriegestützt ein solches Befragungsinstrument zu entwickeln und einer ersten Prüfung zu unterziehen.
Aus bisherigen Forschungsarbeiten zu der Thematik und dem aus der Informationstechnologie bekannten Technologieakzeptanzmodell wurde ein Akzeptanzmodell für Cultured Meat erstellt, auf dessen Grundlage dann ein Befragungsinstrument zur Messung der Akzeptanz von Cultured Meat bei Konsumierenden konstruiert werden konnte. Mit einer online Befragung wurde das entwickelte Befragungsinstrument anhand einer homogenen Analysestichprobe getestet. Dazu wurde eine Skalen- und Itemanalyse durchgeführt sowie die Testung grundlegender Zusammenhänge des Modells vorgenommen.
Die Konsumintention, bestehend aus der Probierintention, der Intention eines regelmäßigen Kaufs und der Bereitschaft konventionelles Fleisch durch Cultured Meat zu ersetzen, wird gut durch den wahrgenommenen Nutzen und die wahrgenommene Konsumfreundlichkeit von Cultured Meat vorhergesagt. Darüber hinaus hat der Ekel, den Konsumierende hinsichtlich eines Konsums von Cultured Meat empfinden, den stärksten negativen Einfluss auf die Konsumintention. Auch die Wahrnehmung der Lebensmittelsicherheit und die Probierbereitschaft des direkten sozialen Umfeldes einer Person haben einen Einfluss auf die Konsumintention. Folglich sollten diese Konstrukte in jedem Fall Bestandteil des Befragungsinstruments zur Messung der Akzeptanz von Cultured Meat sein. Da die Konsumierenden noch über einen geringen Kenntnisstand zu Cultured Meat verfügen und das Produkt noch nicht testen können, ist es für die Erfassung der wahrgenommenen sensorischen Qualität und die Wahrnehmung gesundheitlicher Aspekte sowie die Einschätzung der Zubereitungsleichtigkeit noch zu früh.
Das Thema Marketing hat in den vergangenen Jahren verstärkt auch in Bibliothekseinrichtungen Einzug gehalten. Marketing-Management-Prozesse werden eingesetzt, um die Angebote und Dienstleistungen auf den Kunden auszurichten und die angebotenen Services entsprechend zu vermarkten. Die vorliegende Arbeit analysiert die Dienstleistungen der Bibliotheken der KPMG AG unter Aspekten des theoretischen und praktischen Informationsmarketings. Der theoretische Teil der Arbeit erläutert die einzelnen Phasen eines Marketing-Management-Prozesses, wobei Beispiele auf ihre Anwendbarkeit im Bibliothekswesen gegeben werden. Im praktischen Teil der Arbeit wird der Marketing-Management-Prozess auf die Gegebenheiten der Bibliotheken der KPMG AG und deren Dienstleistungen angewandt. Als Ergebnis aus der Analyse und der Bearbeitung der einzelnen Prozessphasen werden Maßnahmen genannt, die notwendig sind, um die Dienstleistungen der KPMG-Bibliotheken optimal gestalten und auf den Kunden ausrichten zu können.
Analysing the systematics of search engine autocompletion functions by means of data mining methods
(2017)
In the internet era, the information that can be found about politicians online can influence
events such as the results of elections. Research has shown that biased search rankings can
shift the voting preferences of undecided voters. This shows the importance of studying
online search behaviour, especially in the pre-elections phase, when search results can
have a particular influence on the future political scene of a country.
This master thesis aimed to study the behaviour of online search engines in a period before
the German federal election in 2017. The aim was to ascertain if there is any pattern to be
found in the auto-suggestions for searches related to politicians.
In order to gather data for this experiment, a crawler browsed search engine web pages,
input a name and a surname of a politician, and saved that together with all autosuggestions
from the search engine. The autosuggestions were prepared for the analysis and
divided into semantic groups with the help of clustering algorithms.
Different statistical methods, such as correlation analysis, regression analysis, and clustering
were used to identify patterns in the data. The research showed that there are
no particularly strong patterns in the autosuggestions for searches related to politician’s
names. Only moderate dependence was found between gender and personal topics, and
showed that a higher amount of personal information autosuggestions correspond more
to female politicians.
Das Landesbibliothekszentrum Rheinland-Pfalz (LBZ) erfüllt die Funktion einer wissenschaftlichen Landesbibliothek für das Land Rheinland-Pfalz und ist zugleich Fördereinrichtung für das landesweite Bibliothekswesen. Für die Erfüllung dieser heterogenen Dienstleistungen werden derzeit unterschiedliche Bibliothekssysteme eingesetzt. Die ständig wachsenden und sich wandelnden Erwartungen an das Bibliothekswesen erfordern neue Lösungsstrategien der IT, wofür Next Generation Systeme (NGS) als innovative Produkte der Softwarehersteller stehen. Die Anforderungen des LBZs an ein NGS werden im Rahmen dieser Masterarbeit definiert und in ein Lastenheft unter Rückgriff auf die bestehenden Anforderungskataloge des OLE-Projektteams VZG und hbz überführt. Ausgangspunkt der Überlegungen ist ein künftiges Dienstleistungsportfolio des LBZs, das auf aktuelle Dienstleistungen aufbaut. Hinzu kommen weitere Impulse, die aus der Bestandsaufnahme der Dienstleistungen vergleichbarer Landesbibliotheken und aus der Betrachtung sonstiger Dienstleistungen im Bibliothekswesen resultieren. Die sich anschließende Marktbeobachtung prüft die in Deutschland bereits eingeführten NGS-Lösungen auf Kompatibilität mit dem erarbeiteten Lastenheft.
Diese Masterarbeit vergleicht vier verschiedene Persistent Identifier Systeme (PI-Systeme) auf Grundlage von Kriterien systematisch miteinander. Dabei werden der Uniform Resource Name (URN) im Namensraum urn:nbn:de, das Handle-System, der Digital Object Identifier (DOI) und Archival Resource Key (ARK) für den Vergleich herangezogen. Persistent Identifier (PI) stehen im Gegensatz zu URLs speicherortunabhängig zur Verfügung und können somit dauerhaften Zugang zu digitalen Objekten gewährleisten, sodass diese nachhaltig zitierfähig sind. Als Grundlage für die Untersuchung wird der in der DIN 31646 enthaltene Kriterienkatalog verwendet. Dieser wurde mit dem Fokus auf die Langzeitarchivierung von Dokumenten erstellt. In diesem Zusammenhang sind einzelne Aspekte des Kataloges nicht oder nur sinngemäß auf einige der PI-Systeme anwendbar. Darüber hinaus ist die Funktionsweise von Resolver-Diensten von PI-Systemen ein zentraler Gesichtspunkt des Kriterienkataloges. Auf das ARK-System sind die diese Dienste betreffenden Merkmale nicht oder nur analog anwendbar, da es nicht auf dem Resolver-Prinzip beruht. Trotz dieser Einschränkungen kann ein umfassender Vergleich erfolgen. Im Wesentlichen sind alle vier PI-Systeme ausgereifte Methoden, um digitale Ressourcen dauerhaft nachzuweisen. Die zentralen Unterschiede ergeben sich vor allen Dingen aus den Zielsetzungen der PI-Systeme selbst. Bei der URN steht die Langzeitarchivierung der Ressourcen im Vordergrund. Damit erfüllt sie sie meisten Kriterien des Kataloges. Die drei anderen Systeme sind weniger auf eine Langzeitarchivierung der Objekte angelegt, als vielmehr auf einen dauerhaften Nachweis über festgeschriebene Metadatenschemen, die die PIs zitierfähig halten, selbst wenn das Objekt an sich nicht mehr existiert. Ferner gibt es Unterschiede in der technischen Umsetzung der PI-Systeme. Das Handle-System ist ein eigens entwickeltes System, worauf auch die DOI basiert. URN und ARK fußen auf der Nutzung des Domain-Name-Systems (DNS) und bauen auf ihr auf. Überdies unterscheiden sie sich in ihren Finanzierungsmodellen, wobei URN und ARK kostenfrei zur Verfügung stehen, dagegen die Nutzung von DOI und Handle mit Gebühren verbunden ist.
Die Wiederauffindung von Personen und deren Werke im Bereich der Naturwissenschaften durch Suchmaschinen, Repositorien, Internetplattformen und Bibliothekskataloge gestaltet sich für Naturwissenschaftler und Bibliotheken oft mühselig und zeitaufwendig. Als eine Ursache dafür wird die Verkürzung der Vornamen zu Initialen in Literaturangaben, Datensammlungen, Bibliothekskatalogen und sonstigen Autorenlisten angesehen, wie diese Arbeit anhand einer Erhebung im Fachpublikum nachweist. Die von Bibliotheken durchgeführten Individualisierungen, die auf den Functional Requirements for Authority Data (FRAD) beruhen, sollen diese Ursache beseitigen. Ob dieser Ansatz tatsächlich auch den Anforderungen von Naturwissenschaftlern an Personennamendatensätzen in Personennamendatenbanken entspricht, wird ebenfalls anhand der Interviewergebnisse erörtert. Als Ergebnis wird festgestellt, dass die Anforderungen der Naturwissenschaftler durch eine strenge Auslegung der Empfehlungen der FRAD weitgehend erfüllt sind. Jedoch sollten sie auch auf die Erfassung unselbstständiger Werke angewendet werden.
In den letzten Jahren sind viele Asylsuchende nach Deutschland gekommen, um dort Zuflucht zu finden und sich ein sicheres Leben aufzubauen. Das Erlernen der deutschen Sprache und Schrift, der in Deutschland geltenden Gesetze sowie die Teilhabe am gesellschaftlichen und kulturellen Leben bilden die Grundlage für dieses Vorhaben. Öffentliche Bibliotheken können einen bedeutenden Beitrag zur Unterstützung dieser Menschen leisten, indem sie für diese und ihre Integrationshelfer spezielle Angebote und Dienstleistungen entwickeln. Ziel dieser Masterarbeit ist die Erarbeitung einer Bestandsaufnahme, die den aktuellen Status Quo vorhandener Angebote für Asylsuchende sowie deren Multiplikatoren (z.B. Lehrkräfte oder ehrenamtliche Betreuer) in Öffentlichen Bibliotheken aufzeigt. Als Untersuchungsinstrument wird eine eigens erstellte Online-Umfrage eingesetzt, die über die fachlichen Mailinglisten forumoeb und inetBib sowie die Fachstellen für Öffentliche Bibliotheken im März 2017 an die Öffentlichen Bibliotheken in Deutschland verschickt wurde. Des Weiteren wird das derzeitige Dienstleistungsportfolio für Asylsuchende von fünf ausgewählten Großstadtbibliotheken durch eine intensive Analyse vorgestellt. Dazu wurden im Zeitraum von März bis Mai 2017 Experteninterviews mit den fachlich zuständen Mitarbeitern von vier der fünf ausgewählten Bibliotheken durchgeführt.
Aus den ermittelten Untersuchungsergebnissen der deutschlandweiten Umfrage und der Analyse der einzelnen Großstadtbibliotheken wird abschließend eine Wertung zu den derzeitigen Angeboten Öffentlicher Bibliotheken und der Erreichbarkeit der Zielgruppen Asylsuchende und Multiplikatoren erstellt. Zudem wird ein Ausblick auf mögliche quantitative bzw. qualitative Entwicklungen im Kontext dieser zielgruppenspezifischen Arbeit Öffentlicher Bibliotheken gegeben.
Das Goethe-Museum in Düsseldorf wurde 1953 auf Basis der privaten Goethe-Sammlung des Verlegers und Inhabers des Insel Verlags in Leipzig, Anton Kippenberg (1874-1950), gegründet. Die Entstehung dieser größten in privater Hand befindlichen Goethe-Sammlung aus Originalzeugnissen der Goethezeit wird durch eine Sondersammlung aus der ersten Hälfte des 20. Jahrhunderts dokumentiert, die seit vielen Jahren zum Bestand des Goethe-Museums gehört. Im Zuge einer Neuordnung wurde diese nicht erschlossene Sondersammlung als Teilsammlung in die wissenschaftliche Spezialbibliothek des Goethe-Museums eingegliedert. Die Arbeit zeichnet die Aufarbeitung dieser Sondersammlung nach. Nach der Bestandsaufnahme, einer Neuordnung und Beschreibung der in ihr enthaltenen Materialien folgt eine Analyse anhand einzelner Kriterien. Vorgestellt wird anschließend das Portal, mit dem die Sondersammlung erschlossen und sichtbar gemacht werden soll. Im letzten Kapitel wird beschrieben, welche Bedeutung die Sondersammlung für das Goethe-Museum hat, welcher Erkenntniswert heute daraus gezogen werden kann und welche Perspektiven sich durch die Nutzung ergeben.
Text Mining bietet die Möglichkeit, große Textmengen durch automatisierte Verfahren zu analysieren. Die vorliegende Arbeit beschäftigt sich mit der Anwendung und Evaluation solcher Methoden für die spezielle Textform freier Antworten aus Mitarbeiterbefragungen. Dabei werden verschiedene Techniken aus den drei Bereichen Phrasenextraktion, Sentimentanalyse und Kategorisierung dargestellt und an einer konkreten Umfrage angewendet. Die Ergebnisse werden jeweils durch Abgleich mit manuellen Ergebnissen bzw. durch manuelle Bewertungen evaluiert und die Resultate untereinander verglichen. Die genutzten Verfahren sollten ohne spezifische Trainingsdaten oder Projektinformationen anwendbar sein und sich somit auch für andere Mitarbeiterbefragungen eignen.
Die Phrasenextraktion wird auf drei verschiedene Weisen durchgeführt, wobei Part-of-Speech (POS)-Chunking, Stoppwortbegrenzung und Kookkurrenzen genutzt werden. Die Untersuchungen zeigen, dass mit dem POS-Chunking präziser die relevantesten Phrasen aus längeren Texten ermittelt werden können. Die Methode der Stoppwortbegrenzung extrahiert dagegen eine größere Vielfalt relevanter Phrasen auch aus kürzeren Texten. Manuelle Einschätzungen der Extraktionsergebnisse bewerten die Methode mit POS-Chunking am besten. Darüber hinaus wird eine automatisierte Zusammenfassung semantisch ähnlicher Phrasen durchgeführt, wodurch sich leichte Verbesserungen einiger Evaluationsergebnisse zeigten.
Für die Sentimentanalyse der freien Antworten wird eine Erweiterung eines bestehenden Verfahrens aus dem Social Media-Bereich dargestellt. Hierzu werden der Methode vier Regeln hinzugefügt, welche die Sentimentbewertung aufgrund bestimmter Syntaxformen in den freien Antworten verändern. Die Evaluation zeigt, dass drei der vier Regeln dazu beitragen, dass sich die automatisierte Bewertung manuellen Bewertungen annähert.
Die Kategorisierung wird durch die beiden Topic Modeling-Methoden Latent Dirichlet Allocation (LDA) und Non-negative Matrix Factorization (NMF) durchgeführt. NMF erreichte bei dem Abgleich mit einer manuellen Kategorisierung höhere Übereinstimmungen und zeichnete sich auch durch eine bessere Abgrenzung der Thematiken sowie eine bessere Interpretierbarkeit aus.
Die Text Mining-Methoden und deren Evaluationen werden für diese Arbeit in der Programmiersprache Python umgesetzt. Außerdem werden die Text Mining-Resultate in die Datenvisualisierungssoftware Tableau eingebunden.
In der vorliegenden Arbeit wird ein Einblick in Eignung und Unterschiede verschiedener Text Mining-Methoden in Bezug auf freie Antworten in Mitarbeiterbefragungen gegeben. Darüber hinaus wird dargestellt, dass auch spezifische Anpassungen an diese Textform möglich sind. Zusätzlich werden diverse Optimierungsansätze aufgezeigt, die den noch großen Weiterentwicklungsbedarf in diesem Bereich verdeutlichen.
Werden Marktforschungsstudien über mehrere Länder und Kulturen hinweg
durchgeführt, so tritt häufig die Problematik auf, dass verwendete Konzepte und
Methoden zwischen den Ländern und Kulturen nicht äquivalent sind. Allerdings
muss Äquivalenz hergestellt sein, um aussagekräftige interkulturelle Vergleiche
vornehmen zu können und somit Gemeinsamkeiten und Unterschiede zwischen
Ländern und Kulturen zu identifizieren. Die vorliegende Masterarbeit knüpft an
dieser zentralen Herausforderung interkultureller Marktforschung an und gibt dabei
einen Überblick über die verschiedenen Ebenen, auf denen Äquivalenz herzustellen
ist. Darüber hinaus werden methodische Herangehensweisen angeführt,
anhand welcher die Herstellung von Äquivalenz sichergestellt und überprüft
werden kann. Besondere Betrachtung findet die Herstellung und Überprüfung
von Messäquivalenz. Eine Gegenüberstellung der konfirmatorischen Faktorenanalyse
als traditionelles Verfahren zur Überprüfung strikter Messäquivalenz und
des Bayesianischen Ansatzes als relativ neues Verfahren zur Überprüfung von
approximativer Messäquivalenz gibt dabei Aufschluss über die zu erfüllenden
Äquivalenzbedingungen, um Beziehungen zwischen Konstrukten sowie Mittelwerte
von Konstrukten aussagekräftig zwischen Ländern und Kulturen miteinander
zu vergleichen. Zu diesem Zweck wurde sowohl geeignete theoriebasierte
als auch empiriebasierte Literatur ausgewertet. Anhand letzterer werden gewonnene
Erkenntnisse aus der theoriebasierten Literatur gestützt und veranschaulicht.
Aufbau einer deutschsprachigen Community für das Bibliotheksmanagementsystem FOLIO : ein Konzept
(2017)
Seit dem Jahr 2016 evaluieren das Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) und die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG/GBV) in einem gemeinsamen Projekt das Open-Source-System FOLIO. Das Ziel ist, qualifizierte Aussagen zur funktionalen und technischen Eignung von FOLIO für den deutschsprachigen Raum zu treffen. Die Kommunikation sowie Wissensvermittlung während der Entwicklung und der Tests von FOLIO erfolgt, wie in Open-Source-Systemen üblich, primär über die Community des Systems. Allerdings ist die FOLIO-Community aus den USA für die deutschen Interessen meist nicht der adäquate Ansprechpartner, da sich die Bedürfnisse der deutschen Bibliotheken von denen in den USA unterscheiden und nur einen kleinen Teil der großen Gemeinschaft betreffen. Die Entwicklung einer FOLIO-Community für den deutschsprachigen Raum bietet Bibliotheken, die FOLIO zukünftig einsetzen werden, einen Ort, um ihre Bedürfnisse, Anliegen und Probleme zu diskutieren. Aus diesem Grund stellt die Arbeit in und mit einer eigens für Deutschland eingerichteten FOLIO-Community einen wesentlichen Aspekt im FOLIO-Entwicklungsprojekt von hbz und VZG des Projekts dar.
Ziel der vorliegenden Arbeit ist, Rahmenbedingungen sowie Faktoren für einen erfolg-reichen Aufbau und einer dauerhaften Etablierung der deutschsprachigen FOLIO-Community zu identifizieren und zu eruieren, welche Tools benötigt werden, um die Community für die Nutzer attraktiv und bedienungsfreundlich zu gestalten. Hierzu werden bereits vorhandene Communitys im Bereich des Bibliothekswesens, ausgehend von den Handlungsempfehlungen von Amy Jo Kim, Sandra Schaffert sowie Diana Wieden-Bischof, verglichen. Als Referenzmodelle dienen die Communitys des Open Source-Systems Koha, die Kuali OLE-Community sowie die FOLIO-Community aus den USA. Durch den Vergleich werden die Unterschiede sowie die Gemeinsamkeiten der einzelnen Communitys herausgearbeitet, um die gesammelten Erkenntnisse in die Konzeptentwicklung für eine deutschsprachige FOLIO-Community einfließen zu lassen.
Die Gewöhnung der Internetnutzer an den einzelnen Suchschlitz bei Google stellt Bibliotheken vor eine neue Herausforderung. Ihre Recherchewerkzeuge sind vergleichsweise kompliziert aufgebaut und für die jüngeren Internetnutzer zunehmend unattraktiv in ihrer Anwendung. Die Lösung scheint in Discovery-Systemen zu liegen, nicht nur aufgrund größerer inhaltlicher Angebote, sondern auch hinsichtlich ihrer Anwendung mit nur einem Suchschlitz. Die Bayerische Staatsbibliothek (BSB) stellt eine Teillösung bereit. Ihr Discovery-System Primo Central der Firma ExLibris bietet die Suche sowohl über mehrere Suchparameter als auch über einen Suchschlitz an. Die Suchergebnisse präsentiert es in drei Reitern, zusätzlich verfügt es über die Möglichkeit zu selektieren. Ziel der folgenden Arbeit ist die Prüfung der Usability des Discovery-Systems der Bay-erischen Staatsbibliothek anhand von zwei Tests, der Heuristischen Evaluation und des nutzerorientierten Usability-Tests sowie die Zusammenführung der daraus entstehenden Erkenntnisse. Es kristallisiert sich heraus, dass die neue Form der Suche in vielen Teilen attraktiv ist, jedoch Mängel hinsichtlich der Benutzerfreundlichkeit offensichtlich sind. Das im Pilotbetrieb an der BSB gestartete System Yewno Discover ist ebenfalls Bestandteil der Usability-Prüfung und zeigt sich als sinnvolle Ergänzung der aktuellen Suchsysteme.
Die Technische Hochschule Köln betreibt derzeit drei Repositorien. Die inhaltliche Verwaltung
von Cologne Open Science und ePublications wird von der Hochschulbibliothek
vorgenommen; PubLIS Cologne hingegen vom Institut für Informationswissenschaft.
COS wurde mit dem DINI-Zertifikat 2013 ausgezeichnet. Doch das aktuellere DINI-Zertifikat
aus dem Jahre 2016 stellt neue Mindestanforderungen an Repositorien. Diese Arbeit
untersucht, welche Veränderungen an den Repositorien vorgenommen werden
müssten, um das aktuelle DINI-Zertifikat 2016 zu erhalten und gibt weitere Empfehlungen,
wie die TH Köln ihre Repositorien zukunftsweisend ausbauen sollte.
Achtsamkeit ist weitaus mehr als ein kurzweiliges Trendmomentum der heutigen Zeit. Die über 2000 Jahre alte buddhistische Tradition ist in den 1950er-Jahren in Form von Meditationstechniken in die westliche Welt eingezogen und gewinnt seither stetig an Relevanz. In Großbritannien ist Achtsamkeit ein Pflichtfach an Schulen und wird ab der Grundschule unterrichtet. Deutsche Schulen ziehen mit vereinzelten Pilotprojekten nach, die wissenschaftlich begleitet werden und erste positive Entwicklungen feststellen. Praktizierte Achtsamkeit hilft Menschen dabei, sich selbst zu finden und mit der Informationsdichte der heutigen Zeit umzugehen. Das Ziel dieser Masterarbeit ist es zu bestimmen, welchen Einfluss achtsamkeitsbasierte meditative Einheiten auf die bewusste Wahrnehmung des gegenwärtigen Moments bei 20- bis 30 Jährigen im digitalen Zeitalter haben. Anhand einer quantitativen Vorher-Nachher-Untersuchung wird analysiert, inwiefern ein zehntägiges achtsamkeitsbasiertes Interventionsprogramm das Bewusstsein für den gegenwärtigen Moment und weitere Parameter wie die der Dankbarkeit beeinflussen kann. Im Anschluss wird durch qualitative Interviews ergründet, wieso es zu den gemessenen Veränderungen im Laufe des Interventionsprogramms gekommen ist.
Der Mixed Methods Ansatz wird gewählt, um neben aufgestellten forschungsleitenden Unterfragen die folgend ausformulierte Hauptforschungsfrage FF1 zu beantworten: „Welchen Einfluss haben achtsamkeitsbasierte meditative Einheiten auf die bewusste Wahrnehmung des gegenwärtigen Moments bei 20- bis 30-jährigen im digitalen Zeitalter?“. Zentrale Ergebnisse dieser Arbeit sind, dass das Ausüben achtsamkeitsbasierter meditativer Einheiten messbaren Einfluss auf das Bewusstsein für den gegenwärtigen Moment sowie auf die Parameter der Achtsamkeit und Dankbarkeit haben.
Marken durchdringen die Öffentlichkeit, indem sie Personen, Organisationen, Dienstleistungen, Unternehmen und Produkte repräsentieren. Jede Marke verkörpert folglich ein Markenobjekt oder einen Markenabsender. Trotz der Vielzahl an Markenobjekten, setzt sich jede Marke aus den gleichen Komponenten zusammen: Eine formale Markierung in Form eines Namens oder eines Schriftzugs grenzt die Marke zu anderen Marken ab. Neben dieser Differenzierung besteht eine Marke vor allem aus der inhaltlichen Perspektive: Jeder Markenabsender sendet ein Selbstbild aus, das seine Identität verkörpert. Diese Inhalte und Informationen der Marke werden von den Markenrezipienten wahrgenommen und verarbeitet und auf Basis von Erfahrungen, Empfindungen und Voreinstellungen verarbeitet. Daraus entwickelt sich ein externes Bild der Marke, das Fremdbild oder Image. Aus diesem Zusammenspiel zwischen gesendetem Selbstbild und wahrgenommenem Fremdbild entwickelt sich der Wert einer Marke. Je mehr die interne und externe Perspektive dabei übereinstimmen, desto besser und stabiler ist der Markenwert zu beurteilen: Die Markeninhalte sind bei den Markenrezipienten verankert, werden von ihnen akzeptiert und vielleicht in der Öffentlichkeit vertreten.
Auf diese Weise entwickelt sich jede Marke. Zeitgleich gibt es relevante Unterschiede, die es in der jeweiligen Markenbewertung zu beachten gilt: Treten Unternehmen als Marken auf, dann sind es das Leitbild und die Unternehmensvision, die die Identität der Marke prägen. Als Markenabsender tritt die Gruppe hinter der Marke auf, also die Unternehmensvertreter wie Management und Mitarbeiter. Zudem ist der Markt relevant, auf dem die Marke auftritt. Im Business-to-Business-Geschäft überzeugen vor allem die Faktoren Risikoreduktion und Informationseffizienz einer Marke.
Diese theoretischen Grundlagen behandelt die Master-Thesis „Behind-the-brand. Welche Treiber bestimmen die externe Markenwahrnehmung? Eine Analyse vom Selbst- und Fremdbild eines B-to-B-Unternehmens.“ und sie setzt in Relation zu einer praxisorientierten Untersuchung: Der Markenwert eines B-to-B-Marken-Unternehmens im Spannungsfeld zwischen aufgestelltem Selbstbild und attestiertem Fremdbild aus Kundensicht. Zudem sollen relevante Faktoren aufgedeckt werden, die diesen Markenwert wiederum beeinflussen – ob stärken oder schwächen. Am Ende steht der Wert der Marke und des Unternehmens.
Das Ziel der vorliegenden Arbeit ist es, Empfehlungen für Beratungsangebote zu Open Access für das Bundesinstitut für Berufsbildung zu erarbeiten. Dazu wird die Frage beantwortet, welche Beratungsangebote dazu geeignet sind, die Mitarbeitenden des BIBB bei ihren Publikationsvorhaben zu unterstützen.
Um die Frage zu beantworten, wurde unter den Mitarbeitenden des BIBB eine Befragung durchgeführt. In der Umfrage machten die Teilnehmenden Angaben zu ihren Interessen und ihrem Informationsbedarf bezüglich Open Access und verwandten Themenbereichen. Auch wurden sie zu ihrer Einschätzung bereits vorhandener Beratungsangebote sowie möglicher weiterer Angebote befragt.
Die Befragung zeigte, dass die Zielgruppe grundsätzlich großes Interesse an Beratung zu Grundlagen von Open Access, aber auch verwandten Themen hat. Auch wurde deutlich, dass unterschiedliche Formate der Beratung nötig sind, um die Mitarbeitenden des BIBB optimal zu unterstützen. Empfehlungen für die Konzeption und Durchführung von Informationsveranstaltungen, schriftlichen Informationsmaterialien sowie individueller Beratung wurden mithilfe der Fachliteratur erarbeitet.
Die vorliegende Arbeit stellt exemplarisch dar, wie die Veröffentlichungs-strategie deutscher juristischer Verlage von Print- und elektronischen Me-dien im Bestandsmanagement juristischer Sekundärliteratur in einer lokalen Firmenbibliothek einer Anwaltskanzlei umgesetzt werden kann. Es wird be-legt, dass eine Virtuelle Bibliothek den Informationsbedarf der Nutzer nicht decken kann, und nach Kriterien zur Entwicklung eines hybriden Be-standsaufbaus gesucht. Im Zentrum steht die Auswahl des Publikationsfor-mates als Print- oder elektronische Ausgabe, wenn denn eine Wahlmöglich-keit in einem printorientierten Verlagsangebot besteht. Über die Entwick-lung formaler Erwerbungsrichtlinien zur Auswahl eines verlässlich zugängli-chen und nutzerorientierten Publikationsformats in Ergänzung zu bewährten inhaltlichen Erwerbungsstrategien wird festgestellt, dass standardisierte Er-werbungsentscheidungen lediglich für einen kleinen Teil des Bestandes möglich sind. Der Regelfall bleibt die Einzelfallentscheidung, für die in den formalen Richtlinien Maßgaben entworfen werden. Das Fallbeispiel in seiner Funktion als interner Dienstleister steht dabei für den Bibliothekstyp der Kanzleibibliothek bzw. der Firmenbibliothek mit juristischem Bestand. Die gewonnenen Erkenntnisse sind auf andere Bibliotheken der gleichen Aus-richtung übertragbar. In einem sich aktuell dynamisch entwickelnden Ver-lagsangebot möchte die Verfasserin einen Beitrag zur fachlichen Diskussion um die nutzergerechte hybride Kanzleibibliothek leisten, indem sie aus bib-liothekarischer Sicht ausgewählte Desiderate zur weiteren Entwicklung des juristischen Verlagsangebots formuliert. Einstweilen gilt: In Dubio pro Print!
Gedruckte Bestände stehen nicht unbedingt im Mittelpunkt, wenn Bibliotheken ihre Attraktivität für Nutzer erhöhen wollen. Aber auch mit der Art der Bestandsordnung können die Bedingungen in einer Bibliothek für die Benutzer verbessert werden. In der Zweigbibliothek Sozialwissenschaften (ZB Soz) der Universität- und Landesbibliothek Münster soll mit der relevanzbasierten Freihandaufstellung ein besseres An-gebot für die Nutzer entstehen. Die Machbarkeit des Konzepts wurde mithilfe einer Simulation überprüft.
Zuerst werden verschiedene Bestandsordnungsverfahren vorgestellt. Die systematische Aufstellung wird näher beleuchtet, auch in Hinblick auf ihre Benutzerfreundlichkeit. Die Situation in der ZB Soz wird vorgestellt und die relevanzbasierte Freihandaufstellung, eine Mischform aus fluider und systematischer Aufstellung, erläutert.
Nachdem die theoretischen Grundlagen dargelegt worden sind, wird auf die benutzten Instrumente eingegangen. Es wurde zur Überprüfung der Machbarkeit eine Simulation eingesetzt. Mit den so gewonnenen Daten und selbst erstellten Formeln ist der Arbeitsaufwand der relevanzbasierten Freihandaufstellung berechnet worden. Es wurde zudem ein Programm zur Umsystematisierung größerer Bestände eingesetzt.
Bibliothek mit Qualität und Siegel ist ein Verfahren zur Qualitätssicherung für öffentliche Bibliotheken in Niedersachsen. Die Teilnahme soll die internen Arbeitsabläufe der Bibliothek optimieren und dabei helfen, qualitativ gesicherte Dienstleistungen für die Kunden zu erreichen. In der vorliegenden Arbeit erfolgt zunächst eine Darstellung der verbreitetsten Modelle und Systeme des Qualitätsmanagements im deutschsprachigen Bibliothekswesen. Der Schwerpunkt liegt in der Evaluation des niedersächsischen Zertifizierungsverfahrens Bibliothek mit Qualität und Siegel. Dazu wurden mehrere Projektbeteiligte schriftlich nach ihrer Einschätzung befragt, u.a. die Bibliotheks-leitungen bereits zertifizierter Einrichtungen. In Ergänzung zu einer ausführlichen Projektbeschreibung entsteht durch die erfassten Daten, Erfahrungen und Meinungen ein vielschichtiger Blick auf das Verfahren und die positiven Aus¬wirkungen, die eine Teilnahme auf Bibliotheken haben kann. Die Resonanz gegenüber dem Verfahren fällt positiv aus, wobei von kleineren Bibliotheken vereinzelt Kritik in Bezug auf den Arbeitsaufwand geäußert wurde. Abschließend werden Optimierungsvorschläge unterbreitet, mit denen z.B. verstärkt potentielle Teilnehmer von Bibliothek mit Qualität und Siegel angesprochen werden können.
Bibliothek und Moderne in Japan : das wissenschaftliche Bibliothekswesen zwischen System und Kultur
(2012)
Die vorliegende Arbeit erklärt die gegenwärtigen Strukturen des Hochschulbibliothekssystems in Japan aus ihrer kulturhistorischen Entwicklung heraus. Im Mittelpunkt steht dabei die Frage nach Einflüssen der traditionellen japanischen Kultur auf das moderne Bibliothekswesen. Zunächst wird die Entwicklung des vormodernen Bibliothekswesens in Japan bis ca. 1850 geschildert. Sodann wird vor dem gesellschaftlichen und kulturellen Hintergrund der Entwicklung der japanischen Modernisierung bis in die Nachkriegszeit die Genese des modernen wissenschaftlichen Bibliothekssystems einschließlich des relevanten Verbandswesens und der Bibliothekarsausbildung erläutert. Das System der Hochschulbibliotheken wird dabei im Kontext angrenzender Systeme wie des Hochschulsystems und des allgemeinen Bibliothekssystems in Japan geschildert. Die internen Strukturen der japanischen Hochschulen und der ihnen angeschlossenen Bibliotheken sind der vorliegenden Darstellung zufolge in der Vorkriegszeit wesentlich vom Vorbild der zeitgenössischen deutschen Hochschulen beeinflusst gewesen, während in der Nachkriegszeit der US-amerikanische kulturelle Einfluss deutlich überwiegt. Die kooperative Bibliotheksarbeit, die Automatisierung und die Entwicklung hin zur digitalen Bibliothek vollzogen sich zwar gegenüber westlichen Ländern teils langsamer, führten aber doch zu einem leistungsfähigen und ausdifferenzierten Hochschulbibliothekssystem. Die Arbeit schildert zudem die Unterschiede zwischen Bibliotheken an privaten und staatlichen Trägerinstitutionen, zwischen älteren zweischichtigen und jüngeren einschichtigen Bibliothekssystemen, und die Rolle des japanischen Staates für die Bibliotheksentwicklung. Sie beschreibt auch einige der Herausforderungen des gegenwärtigen Systems: dazu zählen Probleme in der japanischen Bibliothekarsausbildung und die Entwicklungsperspektive der Träger vor dem Hintergrund der alternden japanischen Gesellschaft. Die Arbeit kommt zu dem Schluss, dass sich aus der Entwicklung des modernen Hochschulbibliothekssystems ein konsequenter kultureller Bruch mit der vormodernen japanischen Bibliothekstradition ersehen lässt. Die Modernisierung nach 1850 führte nicht nur zum Import von Techniken und systemischen Organisationsprinzipien des westlichen Bibliothekswesens, sondern auch die bibliothekarische Berufskultur wurde wesentlich von westlichem Gedankengut geprägt.
Die FernUniversität in Hagen erlaubt ein Studium neben dem Beruf und/ oder dem Familienleben. Auch Inhaftierte können an der FernUniversität studieren, einen Abschluss erwerben und ihre Qualifikation erweitern. Lange Zeit waren es vor allem gedruckte Studienbriefe, Aufsatzkopien und Bücher, die zum Studium nötig waren. Doch mehr und mehr findet das Studium online statt. Die Universitätsbibliothek hat ihr Erwerbungsprofil zunehmend auf Onlineressourcen ausgerichtet. Doch kaum eine Haftanstalt bietet den Inhaftierten einen Internetzugang. Ist so ein Studium überhaupt noch möglich? Wie verhält sich die Situation in anderen Ländern? Können Studenten in Haft dort das Internet nutzen? – Das Internet ist allgegenwärtig, der Umgang mit elektronischen Medien zur Kulturtechnik geworden zu sein. Welche Lösungsmöglichkeiten gibt es in dieser Situation – und was ist in der Zukunft wichtig?
Öffentliche Bibliotheken tragen durch vielfältige Angebote dazu bei, das in der Verfassung verankerte Grundrecht auf Informationsfreiheit umzusetzen und Chancengleichheit herzustellen. Die Informationen über die verschiedenen bibliothekarischen Serviceleistungen stehen jedoch in vielen Fällen nur in Standardsprache zur Verfügung. Menschen, welche Probleme mit der Schriftsprache haben, stoßen hier auf erhebliche Schwierigkeiten. Bibliothekarische Dienstleistungen in Leichter Sprache können dabei helfen, sprachliche Hürden abzubauen und einen barrierefreien Zugang zu Information und Kommunikation zu ermöglichen.
Die vorliegende Arbeit thematisiert das Konzept der Leichten Sprache im Kontext von Bibliotheksarbeit. Es wird gezeigt, wie wichtig der Einsatz ist, um einen Teil der Bevölkerung die Ausübung ihrer Grundrechte zu ermöglichen. Zudem werden Impulse gegeben, wie die Leichte Sprache in ein zukünftig ganzheitliches Konzept eingearbeitet werden kann.
Bibliotheken sind ein wichtiger Bestandteil in der Entwicklung moderner, demokratischer Gesellschaften. Jedoch können aufgrund zahlreicher Defizite sowohl einzelne Bibliotheken als auch die Bibliothekssysteme in Entwicklungsländern ihrer bedeutenden Rolle nicht gerecht werden. Die Förderung und Beratung dieser Einrichtungen durch Institutionen aus entwickelten Ländern gewinnt daher in der globalisierten Welt, die sich zugleich durch neue technische Entwicklungen stetig verändert, immer mehr an Bedeutung. Für die Bibliothek der Friedrich-Ebert-Stiftung, die als Abteilung einer international tätigen Nichtregierungsorganisation erste Erfahrungen mit der Unterstützung und Beratung der Bibliothek der Chama Cha Mapinduzi in Tansania gesammelt hat, eröffnen sich damit Perspektiven, die bibliothekarische Beratung in Entwicklungsländern als reguläres Tätigkeitsfeld in ihrem Produktportfolio zu verankern. Die Beratung stellt nicht nur eine Erweiterung des Aufgabenspektrums dieser historisch-wissenschaftlichen Spezialbibliothek dar, sondern kann zugleich als neues Instrument in der Auslandsarbeit der Friedrich-Ebert-Stiftung etabliert werden, das sich an unterschiedliche politische Partnerorganisationen in Entwicklungsländer richtet. Schafft die FES-Bibliothek die notwendigen internen Voraussetzungen, dieses Tätigkeitsfeld auf Dauer zu implementieren, kann sie von der damit verbundenen verbesserten FES-internen Vernetzung profitieren und zugleich einen kleinen Beitrag zur Entwicklung von Bibliotheken in Entwicklungsländern leisten.
Bibliothekspolitik wird selten definiert und noch seltener wissenschaftlich erforscht.
Die Methode der Politikfeldanalyse erlaubt es, Bibliothekspolitik in fünf Phasen
systematisch zu hinterfragen. Im Rahmen dieser Arbeit soll Bibliothekspolitik anhand
von Fallbeispielen im Großherzogtum Luxemburg untersucht werden. Die dabei
gewonnenen Erkenntnisse sollen sowohl der bibliothekarischen Lobbyarbeit dienen als
auch den Bibliothekaren helfen, unbekannte Sichtweisen der verschiedenen politischen
Akteure kennenzulernen.
In den letzten Jahren haben immer mehr sprachbasierte User Interfaces (Voicebots) Einzug in den Kundenservice von Unternehmen gefunden. Der aktuelle Entwicklungsstand dieser Technologien ist zum jetzigen Zeitpunkt allerdings noch nicht weit genug ausgereift, um zu jeder Zeit eine stabile Systemperformance zu bieten. Insbesondere bei der Spracherkennung und -verarbeitung kommt es zurzeit noch vermehrt zu technischen Problemen, die zur Frustration der Kunden führen können und die es daher unbedingt zu vermeiden gilt. Die vorliegende Arbeit befasst sich mit der Fragestellung, wie trotz schlechter Usability ein möglichst positives Nutzererlebnis gewährleistet werden kann und untersucht den Einsatz von Humor als Frustrationsbewältigungsstrategie. Dazu wurde ein Wizard-of-Oz-Experiment mit fünfzehn Testpersonen durchgeführt, in dem eine für einen Kundenservice typische Unterhaltung zwischen einem Menschen und einem Voicebot simuliert wurde. Um den Einfluss des Humors auf das Nutzererlebnis der Testpersonen besser evaluieren zu können, wurden diese in zwei Gruppen eingeteilt.
Während mit der Kontrollgruppe das Experiment mit einem neutralen Voicebot durchgeführt wurde, sprach die Humorgruppe mit einem humorvoll gestalteten Voicebot. Im Anschluss an das Experiment wurden qualitative Interviews mit den Testpersonen zu ihrem wahrgenommenen Nutzererlebnis geführt. Die Interviews wurden im Nachgang mithilfe der Qualitativen Inhaltsanalyse nach Mayring ausgewertet. So wurden die gewonnenen Erkenntnisse aus den beiden Gruppen miteinander verglichen und evaluiert, inwieweit der Einsatz von Humor das Nutzererlebnis mit einem solch aufgabenorientierten Voicebot beeinflusst. Es zeigte sich, dass Humor im vorliegenden Anwendungskontext mit Vorsicht einzusetzen ist. Zwar kann Humor unter gewissen Voraussetzungen zur Verbesserung des Nutzererlebnisses beitragen, er kann jedoch auch eine zusätzliche Verschlechterung des Nutzererlebnisses zur Folge haben.
Untersuchungsziel – Diese Arbeit untersucht, welche Chancen und Herausforderungen mit dem Einsatz blockchain-basierter Anwendungen im Online-Advertising einhergehen. Zweck dieser Arbeit ist es, mit den gewonnenen Erkenntnissen das noch junge Forschungsfeld, das die Schnittmenge von Blockchain-Technologie und Online-Advertising zum Gegenstand hat, durch Grundlagenforschung zu unterstützen und so Forschung und Praxis gleichermaßen dienlich zu sein.
Methodologie – Zur Beantwortung der forschungsleitenden Fragestellung werden Websites von Unternehmen, respektive ihren blockchain-basierten Anwendungen, im Online-Advertising recherchiert. Hierfür kommen methodische Anleihen aus dem Bereich systematischer Literatur-Reviews zum Einsatz. Die Texte der recherchierten Websites werden dann qualitativ inhaltsanalytisch erschlossen. Das Vorgehen der Inhaltsanalyse orientiert sich maßgeblich an den Vorgaben von Philipp A. E. Mayring.
Resultate – Die Ergebnisse dieser Untersuchung zeigen, dass der Einsatz blockchain-basierter Anwendungen Transparenz schafft, Kontrolle der Supply-Chain ermöglicht, und damit einen Mehrwert für das Ökosystem stiftet. Die Kontrolle der Akteure und ihrer Aktivitäten sowie deren Validierung auf der Blockchain erzeugt Brand-Safety und reduziert Ad-Fraud. Durch Smart Contracts können manuelle und damit fehleranfällige Prozesse automatisiert und ersetzt werden. Für Konsumenten hält die Blockchain technologie-immanente Schutzmechanismen für ihre Daten bereit. Allerdings gilt es, die Kardinalprobleme Skalierbarkeit, Interoperabilität und Energieeffizienz zu überwinden.
Implikationen – Die Wissenschaft sollte eben jene Kardinalprobleme erforschen und Lösungen entwickeln. Die Legislative sollte Rechtssicherheit schaffen. Verbraucherschützer sollten über die positiven (wie negativen) Effekte der Technologie informieren. Die Wirtschaft sollte weiterhin spezifische Anwendungsszenarien prüfen.
Limitationen – Zur Untermauerung der Ergebnisse dieser Untersuchung sollten quantifizierende Methoden eingesetzt werden.
Die vorliegende Master Thesis vermittelt einen Überblick über die Ausprägungen und Einsatzpotenziale von Brand Communities in der Online-Marktforschung. Den Ausgangspunkt der Arbeit bildet die theoretische Begriffsdefinition, wobei separat auf den Spezialfall der virtuellen Markengemeinschaften eingegangen wird. Aufbauend auf diesem Konzept erfolgen die Vorstellung und der Vergleich von unternehmens- und kundeninitiierten Brand Communities anhand von Literaturrecherche und praktischen Fallbeispielen. Neben diesen zwei grundsätzlichen Ausprägungen wird auch die Sonderform der Market Research Online Communities (MROC) in gleicher Weise untersucht. Im Anschluss an diese Darstellung setzt sich die Arbeit mit möglichen Einsatzfeldern der Gemeinschaften in der Online-Marktforschung auseinander. Exemplarisch werden hier die Produktentwicklung, die Imageforschung und das Customer Feedback Management näher betrachtet. Dazu werden jeweils die theoretische Bedeutung des Feldes und die praktische Umsetzung in Markengemeinschaften erläutert, zur Veranschaulichung dienen außerdem Fallbeispiele aus verschiedenen Branchen. Es folgt eine Betrachtung ausgewählter Methoden, die für die Marktforschung in virtuellen Brand Communities bereits eingesetzt werden bzw. dahingehend Potenzial besitzen. Hierzu werden beispielhaft die Befragung, die Gruppendiskussion und die Netnographie präsentiert und es wird ausgeführt, wie diese Verfahren in Markengemeinschaften angewendet werden können bzw. welche Chancen sich daraus ergeben. Im Fazit wird anschließend herausgestellt, dass der Einsatz von Brand Communities in der Online-Marktforschung eine wichtige Erweiterung des klassischen Portfolios bildet. Dabei muss jedoch beachtet werden, dass die Form bzw. speziell der Initiator der Gemeinschaft einen großen Einfluss auf die Inhalte und die Auswertungsmöglichkeiten hat. Trotz dieser Einschränkungen kann generell festgestellt werden, dass Brand Communities es Unternehmen und Marktforschern erleichtern, Informationen über die Mitglieder sowie deren Einstellungen, Aktivitäten und Verbindungen untereinander zu gewinnen.
Heute gestalten Unternehmen aktiv die Erfahrungen ihrer Kunden über das Experience Management und begeistern ihre Kunden. Die Forschung hingegen benötigt noch die theoretische Grundlage in diesem Themengebiet. Insbesondere das Zusammenspiel von Brand Experience und Kundenbegeisterung wurde noch nicht empirisch untersucht. Um diese Forschungslücke zu schließen, wurde in der vorliegenden Arbeit ein zu testendes Modell aufgestellt, das den Zusammenhang von Brand Experience, Kundenbegeisterung und Kundenbindung (Wiederkaufsabsicht und Weiterempfehlungsbereitschaft) beschreibt. Um diese Wirkungskette empirisch testen zu können, wurde eine Online-Befragung durchgeführt. Für die Studie wurden zwei Sportartikelmarken ausgewählt: Nike und Jack Wolfskin. Insgesamt konnten 950 Personen befragt werden, darunter 700 Nike Käufer und 250 Jack Wolfskin Käufer. Die Ergebnisse der Studie zeigen, dass es einen Zusammenhang von Brand Experience, Kundenbegeisterung und Kundenbindung gibt. Brand Experience hat einen positiven Effekt auf die Kundenbegeisterung. Des Weiteren hat die Kundenbegeisterung einen positiven Effekt sowohl auf die Wiederkaufsabsicht als auch auf die Weiterempfehlungsbereitschaft. Außerdem ist der Effekt von der Brand Experience auf die Kundenbindung, mediiert durch die Kundenbegeisterung, positiv. Auf Grundlage der Ergebnisse werden Implikationen für die Forschung und das Management aufgezeigt.
Das Briefing ist eine Schlüsselstelle in jedem Marktforschungsprozess. Fehler oder Ungenauigkeiten, die hier verortet sind, können ein gesamtes Projekt irreversibel negativ beeinflussen. Dennoch ist insbesondere für Auftraggeber der Marktforschung nicht immer ersichtlich, wie sie den Briefingprozess zielführend gestalten können, konstruktiver Austausch wird mitunter durch Abhängigkeiten und Autoritätsgefälle gehemmt. Ziel dieser Arbeit ist es, den Briefingprozess für Marktforschungsprojekte zu untersuchen und genauer zu beschreiben. Auf diese Weise soll zwischen Auftraggeber und Auftragnehmer mehr Transparenz geschaffen und eine Basis für Selbsteinschätzung und Optimierung geboten werden. Leitende Fragen befassen sich dabei mit Form, Inhalten, Richtlinien, Vorgaben und Standards, sowie Problemquellen und Erfolgsfaktoren. In einer qualitativen Vorstudie wurde das Thema Briefing in teilstrukturierten Leitfadeninterviews exploriert und so Themenschwerpunkte und Hypothesen abgeleitet. Auf Basis dessen wurde eine Online-Umfrage durchgeführt. Teilnehmer waren in beiden Teilstudien betriebliche Marktforscher, Institutsmarktforscher und Marketer. Insgesamt unterstreichen die Ergebnisse die Relevanz eines durchdachten Briefings. Es wird deutlich, dass Form und Anzahl der Briefings sowie Richtlinien, Vorgaben und Standards für einen erfolgreichen Briefingprozess eine untergeordnete Rolle spielen, während Art und Häufigkeit der Kommunikation zwischen Auftraggeber und Auftragnehmer und die Qualität der übermittelten Informationen als ausschlaggebend betrachtet werden. Strukturiertheit und Umfang von Informationen sind häufig nicht ausreichend, bei der nachträglichen Strukturierung und Recherche nach fehlenden Informationen geht gerade im Angebotsprozess wertvolle Zeit verloren. Um dies zu umgehen, wird oft auf bereits bekannte Projektpartner gesetzt. Eine allgemeine Empfehlung an Auftraggeber lautet daher, mehr Zeit und Aufwand in die Briefingerstellung zu investieren. So wird beispielsweise die frühzeitige interne Abstimmung des Vorhabens mit relevanten Stakeholdern als zentral angesehen, um die Voraussetzung für eine reibungslose Informationsübermittlung zu schaffen. Auftragnehmer wiederum können durch häufige und gezielte Nachfragen zum Briefing Missverständnissen und Fehlern frühzeitig vorbeugen.
Eignen sich kleine Bibliotheken für Citizen Science-Projekte? Verschiedene Aspekte verbergen sich hinter dieser kurzen Eingangsfrage: Was sind kleine Bibliotheken? Was bedeutet Citizen Science? Eignen sich Bibliotheken generell für entsprechende Projekte und wenn ja, warum sollten sich kleine Bibliotheken ggfs. nicht oder eben doch besonders eignen? Die vorliegende Masterarbeit möchte diese Fragestellungen anhand des Beispiels von Kreisarchiv und Landeskundlicher Bibliothek des Märkischen Kreises beantworten.
Dazu werden zunächst die Begrifflichkeiten definiert. Neben Citizen Science gilt es Vokabeln wie Citizen Humanities oder Crowdsourcing zu diskutieren. Bevor ausgewählte Projekte als Best Practices beleuchtet werden, untersucht die Arbeit, ob sich Bibliotheken und vergleichbare Wissenseinrichtungen als Orte für Citizen Science eignen und ob die Dokumente aus den Magazinen generell als lohnenswert für eine Erforschung durch die interessierte Öffentlichkeit einzustufen sind.
Anschließend befragt die vorliegende Ausarbeitung ausgewählte Bestände von Landeskundlicher Bibliothek und Kreisarchiv des Märkischen Kreises auf ihr Potential für etwaige Citizen Science-Projekte und überprüft diese auf ihre Durchführbarkeit mit den vorhandenen Mitteln der Beispieleinrichtung. In einem Fazit werden die Erkenntnisse dieser vergleichenden Betrachtung bewertet und vorgestellt, welches Learning diese Machbarkeitsstudie vergleichbaren kleinen Einrichtungen anbieten kann.
Die Construal Level Theory gilt als ein wichtiger integrativer Rahmen zur Erklärung verschiedener Entscheidungsphänomene und beschreibt dabei die Beziehung zwischen dem Grad der Abstraktion im menschlichen Denken und der psychologischen Distanz.
Die Auswirkungen dieser kognitiven Vorgänge wurden bereits in unterschiedlichen Kontexten erforscht. Hierbei ist auch der Einfluss auf die Zahlungsbereitschaft der Konsumenten von Interesse, sodass dieses Forschungsgebiet innerhalb dieser Arbeit erneut aufgegriffen wird. Auf Grundlage von bereits durchgeführten Studien ist es das Ziel, mithilfe einer überarbeiteten Methodik den Einfluss der Construal Level Theory auf die Zahlungsbereitschaft zu überprüfen und daraus mögliche marketingrelevante Handlungsempfehlungen abzuleiten. In diesem Zusammenhang wird die folgende Forschungsfrage gestellt: Welchen Einfluss hat die mentale Abstraktion auf den Zusammenhang zwischen der psychologischen Distanz und der Zahlungsbereitschaft?
Für die Überprüfung wurde eine quantitative experimentelle Online-Befragung mit 290 Probanden durchgeführt, bei welcher die Teilnehmenden hinsichtlich der psychologischen Distanz sowie der mentalen Abstraktion beeinflusst wurden und unterschiedliche Produkte und Aktivitäten in Bezug auf ihre Zahlungsbereitschaft bewerten sollten. Die Ergebnisse zeigen, dass grundsätzlich höhere Beträge bei einer nahen psychologischen Distanz zum Produkt oder der Aktivität angegeben wurden.
Ebenso hat die Übereinstimmung der nahen psychologischen Distanz mit einer konkreten Abstraktion zu einer geringeren Zahlungsbereitschaft geführt als bei alleiniger Betrachtung der psychologischen Distanz. Abgeleitet aus diesen Erkenntnissen ist es somit förderlich eine detaillierte Präsentation von Produkten zu wählen sowie auf eine gezielte Formulierung bei der Bewerbung der Produkte zu achten, sodass bestimmte Dimensionen der psychologischen Distanz angesprochen werden. Der zusätzliche Stimulus der nahen Distanzdimensionen, in Form von Produktmerkmalen oder Informationstexten sollte jedoch mit Bedacht eingesetzt werden, um eine letztendlich geringere Zahlungsbereitschaft zu vermeiden. Es muss in diesem Kontext angemerkt werden, dass die Studienergebnisse dieser Arbeit konträr zu bereits durchgeführten Forschungen sowie den grundsätzlichen Annahmen der Construal Level Theory sind, weshalb noch weitere Wiederholungsstudien durchgeführt werden sollten, um die Ergebnisse zu bestätigen und ebenso aktuelle äußere Einflüsse zu berücksichtigen.
Hierzu zählen beispielsweise gesellschaftliche oder politische Veränderungen.
Non-Profit-Organisationen befinden sich derzeit in einer Gesellschaft, die durch funktionsübergreifendes Arbeiten und schnelle Technologiewechsel gekennzeichnet ist. Wettbewerb, Trends und ein sich veränderndes Nutzerverhalten im Internet, erfordern einen Strukturwandel in der Medienkommunikation. Um heterogene Zielgruppen zu erreichen wird es für Non-Profit-Organisationen immer wichtiger ihre Sprache zu sprechen und ihre Kommunikationstechnologien zu beherrschen. Der Kunde von heute setzt sich aktiv mit Produkten, Angeboten und Dienstleistungen über Foren und Blogs auseinander. Daher müssen Werbemaßnahmen eingesetzt werden, die das entsprechende Nutzungsverhalten aufgreifen. Mit Inbound-Marketing steht ein Marketingprozess zur Verfügung, der auch Kunden einer Non-Profit-Organisation im Kontext einer Content-Marketing-Strategie durch informierende und emotionalisierende Inhalte begeistern und überzeugen kann. Konnten Kunden erfolgreich gewonnen werden, ist die Grundlage eines effektiven Content-Marketings und einer zukunftsweisenden zielgruppenspezifischen Marketingarbeit hinsichtlich kundenspezifischer Medienkanäle, der Erhöhung von Rückverweisen zu einer Webseite im Bereich der Suchmaschinenoptimierung und Mund-zu-Mund-Propaganda gelegt.
As the information era progresses, the sheer volume of information calls for sophisticated retrieval systems. Evaluating them holds the key to ensuring the reliability and relevance of retrieved information. If evaluated with renowned methods, the measured quality is generally presumed to be dependable. That said, it is often forgotten that most evaluations are only snapshots in time and the reliability might be only valid for a short moment. Further, each evaluation method makes assumptions about the circumstances of a search and thereby has different characteristics. Achieving reliable evaluation is critical to retain the aspired quality of an IR system and maintain the confidence of the users. Therefore, we investigate how the evaluation environment (EE) evolves over time and how this might affect the effectiveness of retrieval systems. Further, attention is paid to the differences in the evaluation methods and how they work together in a continuous evaluation framework. A literature review was conducted to investigate changing components which are then modeled in an extended EE. Exemplarily, the effect of document and qrel updates on the effectiveness of IR systems is investigated through reproducibility experiments in the LongEval shared task. As a result, 11 changing components together with initial measures to quantify how they change are identifed, the temporal consistency of five IR systems could precisely be quantifed through reproducibility and replicability measures and the findings were integrated into a continuous evaluation framework. Ultimately, this work contributes to more holistic evaluations in IR.
In der heutigen Gesellschaft streben Menschen in ihrem Leben vermehrt nach facettenreichen Erlebnissen, die emotional, kognitiv aber auch körperlich oder sensorisch ansprechend sind. Dies spielt insbesondere im Rahmen des Konsumverhaltens eine wichtige Rolle. Kunden und Kundinnen erwarten aufregende und stimulierende Erlebnisse. Hierdurch haben sich sowohl die Wissenschaft als auch die Unternehmenspraxis verstärkt dem Kundenerleben (der Customer Experience) zugewandt. So wurde versucht, die das Kundenerleben bestimmenden Wirkmechanismen zu verstehen, Möglichkeiten zu analysieren, um die Customer Experience gestalten zu können und das Kundenerleben ganzheitlich zu orchestrieren. Aber trotz intensiver wissenschaftlicher sowie unternehmerischer Befassung mit diesem Themenkomplex, existieren noch Lücken und offene Fragen, die durch weitere Forschung beantwortet werden müssen, wenn man das Customer Experience Forschungsfeld auf einen höheren Reifegrad bringen will.
Das Ziel dieser Masterthesis besteht daher darin, durch eine nuancierte Untersuchung (relevanter) Antezedenzien und Konsequenzen, das nomologische Netzwerk der Customer Experience zu erweitern und einen Beitrag zum Ausbau sowie zur Validierung des aktuellen Wissensstands zur Customer Experience zu leisten. Schwerpunktmäßig wird dabei die Frage untersucht, welche Wirkungsbeziehungen sich jeweils zwischen dem Customer Involvement als intrapersonellem Einflussfaktor, der Einfachheit als Angebotsmerkmal, der Customer Experience und dem Customer Commitment als evaluativem Outcome identifizieren lassen.
Um die Forschungsfragen zu beantworten, wurde auf Basis theoretischer und empirischer Erkenntnisse ein mehrdimensionales Customer Experience Modell als Rahmen für die empirische Forschung konzipiert. Basierend hierauf wurde eine Customer Experience Messung in Echtzeit, d. h. unmittelbar nach der Erlebnisinteraktion einer Customer Journey, im Rahmen einer quantitativen Online-Befragung in einem Unternehmen der Telekommunikationsbranche, durchgeführt.
Durch die empirische Untersuchung konnte Einfachheit als Einflussfaktor für die Customer Experience sowie das Customer Commitment bestätigt werden. Während Einfachheit die Customer Experience sowie zwei der untersuchten Customer Commitment-Dimensionen (affektives Commitment, normatives Commitment) beeinflusst, besitzt es auf eine der untersuchten Dimensionen (habituelles Commitment) einen negativen Effekt. Die Customer Experience fungiert dabei als wichtiger Mediator zwischen Einfachheit und Customer Commitment und wirkt darüber hinaus als sechsdimensionales Konstrukt facettenreich auf die einzelnen Customer Commitment-Dimensionen ein. Customer Involvement konnte – als Konstrukt erster Ordnung – nicht als Einflussfaktor bestätigt werden, jedoch ließ sich feststellen, dass sich der Indikator für die wahrgenommene Wichtigkeit positiv auf das Kundenerleben sowie das Customer Commitment auswirkt.
The purpose of this research lies in uncovering the participants emotions when watching a personalized advertisement on the social media Instagram. This is of use to the marketing and psychology research community to discover more on consumer behavior and the controversy between privacy concerns and usefulness of advertisement personalization. The research question reads: “Does the use of personalization on social media advertisements incite (1) a change in the emotional state and (2) recall capability of German Instagram users aged 18-30 that diverges from the psychophysiological parameters measured by exposing these users to the same advertisements without personalization?”
Psychophysiological tests are used in combination with two self reported questionnaires that assess the participants positive and negative effect and the recall and recognition differences between the group given personalized stimuli including the participants name, location, and activity and the one group given impersonalized ones. The sample consists of n=31 German-speaking participants between the age of 18 and 30.
The results, although not all of statistic relevancy of α=0,05, show a trend that personalized advertisements instigate more positive valence and activation as not personalized stimuli. No significant or trending difference was found to the recall and recognition capabilities of the two groups.
Die Masterarbeit beschäftigt sich mit digitalen Schriftstellernachlässen unter besonderer Berücksichtigung
von Originaldateien. Dazu dient zunächst eine Begriffsbestimmung des digitalen
Autografs sowie eine Erhebung der Arbeitsweisen zeitgenössischer Autoren, um dem Problemfeld
der Übernahme und Speicherung digitaler Nachlässe auf die Spur zu kommen. Der Übernahme
eines digitalen Bestands ins Archiv – besonders der Dateien des Thomas-Strittmatter-
Nachlasses in das Deutsche Literaturarchiv in Marbach – sowie der Herausarbeitung signifikanter
Eigenschaften (Significant Properties) des digitalen Strittmatter-Bestands widmet sich die
weitere Arbeit. Abschließend werden die so identifizierten Merkmale digitaler Autografe mit
zwei anderen Beständen – Ernst Schnabels und Walter Erich Richartz' – verglichen. Ein
abschließendes Kapitel fasst die Ergebnisse der Arbeit zusammen und versucht als Ausblick
Ideen für die eindeutige Identifizierung von digitalen Autografen und der stärkeren Einbeziehung
von Institutionen des Literaturbetriebs (Literaturhäuser usw.) in die Übernahme und
langfristigen Speicherung digitaler Nachlässe zu entwickeln.
Die vorliegende Arbeit untersucht das 2009 eingeführte Leitbild der Zentralbibliothek für Sportwissenschaften in Köln. Leitbilder gehören kontextuell zum strategischen Management und werden in deutschen Bibliotheken seit den 1990er Jahren eingesetzt. Sie sollen in einer knappen Darstellung folgende Fragen beantworten: Warum bietet die Bibliothek ihre Dienste an? Für wen und von wem werden diese Dienste angeboten? Wie sollen die Dienste idealerweise ausgeführt werden? Was sind die angebotenen Dienste? Leitbilder besitzen eine Innen- und Außenwirkung. Die Innenwirkung gibt den Mitarbeitern Orientierung, Identifikation und Motivation, die Außenwirkung informiert die Öffentlichkeit und unterstützt somit die Legitimität der Bibliothek. Leitbilder sollten regelmäßig evaluiert und gegebenenfalls an veränderte Rahmenbedingungen angepasst werden. Ziel des Projekts ist nicht notwendigerweise die komplette Neugestaltung des Leitbildes sondern die Evaluation und gegebenenfalls Modifikation des vorhandenen Leitbildes, und zwar so, dass das Evaluationsverfahren modellhaft von anderen Bibliotheken adaptiert werden kann.
Der immer schnellere voranschreitende technische Fortschritt zieht auch in der täglichen Arbeit der nationalen wissenschaftlichen Bibliotheken einen Strukturwandel mit sich. Besonders spürbar sind die Veränderungen bei der komplexen Verwaltung von erworbenen elektronischen Ressourcen, sprich Datenbanken, E-Journals oder E-Books. Vor allem im Bereich der konsortialen Arbeit und der dort stattfindenden Zusammenarbeit zwischen den wissenschaftlichen Bibliotheken und den bundesweit angesiedelten Konsortialstellen, existieren bisher noch keine adäquaten Abläufe beim Management der lizenzierten E-Ressourcen. Das Nachhalten aller relevanter LizenzInformationen, wie beispielsweise Kosten, Lizenz- und Archivzeiträume, Titellisten oder Nutzungsstatistiken, für die vielfältigen elektronischen Ressourcen wird immer komplexer und somit wird es schwieriger, die Ressourcen zentral und transparent zu verwalten. Als Lösung zur Schließung dieser momentan bestehenden Lücke der Verwaltung von E-Ressourcen im Konsortialbereich, wird das Electronic Resource Management System LAS:eR vorgestellt, welches speziell für das Management aller konsortialer Handlungsbedarfe im Bereich E-Ressourcen entwickelt wurde. Anhand von LAS:eR wird verdeutlicht, wie zukünftig die Workflows zwischen den deutschsprachigen Konsortialstellen und den nationalen wissenschaftlichen Bibliotheken deutlich optimiert werden können und dadurch bundesweit Veränderungen in der Konsortialarbeit angestoßen werden können.
Junge, heranwachsende Menschen weisen ein besonders auffälliges Bewegtbildnutzungsverhalten auf. Die vorliegende Arbeit liefert einen Beitrag dazu, dieses Verhalten besser zu verstehen. Zwar existieren bereits einige Studien, die sich mit diesem Thema auseinandersetzen, diese dienen jedoch eher der quantitativen Beschreibung des Verhaltens und tragen recht wenig dazu bei, das Verhalten zu verstehen. In der vorliegenden Arbeit wird das Bewegtbildnutzungsverhalten junger Menschen deshalb im Sinne eines besseren Verständnisses empirisch untersucht. Das Thema Video on Demand findet dabei als für diese Altersgruppe potenziell sehr attraktiver Beschaffungsweg besondere Berücksichtigung. In der Vorbereitung des empirischen Teils der Arbeit werden zunächst die Begriffe Bewegtbild und Video on Demand umfassend erklärt, grundlegende Erkenntnisse der Konsumentenverhaltensforschung dargelegt und der aktuelle Stand der Forschung aufgearbeitet. Den Schwerpunkt dieser Arbeit bildet die anschließende qualitative Befragung von insgesamt 16 Probanden im Alter zwischen 14 und 29 Jahren. Diese Probanden wurden ausführlich zu verschiedenen Aspekten ihres Bewegtbildnutzungsverhaltens interviewt und die Ergebnisse unter Anwendung der qualitativen Inhaltsanalyse nach Mayring systematisch ausgewertet und strukturiert.
Die vorliegende Arbeit nimmt eine Bestandsaufnahme von Inhalten, Funktionen und integrierten Angeboten und Dienstleistungen von Online-Fachportalen vor, die durch Fachinformationsdienste (FID) angeboten werden. Dies geschieht vor dem Hintergrund der Fragestellung, inwieweit FID-Portale neue Wege beschreiten, um der Kritik an den ihnen vorangehenden Fachportalen für die überregionale Literaturversorgung, den Virtuellen Fachbibliotheken (ViFas), zu begegnen, die durch die Gremien der Fördereinrichtung DFG ebenso wie durch das wissenschaftliche Bibliothekswesen selbst immer wieder geäußert wurde. Dabei geht es um die mangelnde Integration von elektronischen Ressourcen, aber auch die geringe Attraktivität und Usability der älteren Portale.
In dieser Arbeit wird zunächst kurz die beschriebene Problematik erläutert. Das wesentliche Ziel ist es dann, einen ausführlichen Überblick über die Portallandschaft im Kontext der FID-Förderung zu geben. Daran schließt sich der Versuch einer Einschätzung an, ob FID-Portale die von ihnen erwarteten Leistungen erbringen können – oder ob die Probleme der überregionalen Literaturversorgung, die durch die Neuausrichtung der Förderlinie vor einigen Jahren ausgeräumt werden sollten, bestehen bleiben.
Die Förderung von Informationskompetenz (IK) ist eine Kernaufgabe von Hochschulbibliotheken
und entsprechende Veranstaltungen sind zu einem festen Bestandteil
ihrer Dienstleistungen geworden. Dabei lag der Schwerpunkt zunächst auf klassischen
Veranstaltungsinhalten wie Einführungen in die Bibliotheksbenutzung und Rechercheschulungen
in Datenbanken und Katalogen, welche lange Zeit als Kern bibliothekarischer
Informationskompetenzvermittlung betrachtet wurden.
Diese Sichtweise hat sich in den letzten Jahren verändert und es wird überlegt, wie die
Angebote zu erweitern sind, um neuere Entwicklungen in der Informations- und Forschungslandschaft
zu berücksichtigen. Diese Erweiterung wurde u.a. befördert durch
Konkurrenz in Form von Informationsangeboten außerhalb der Bibliothek und durch
die Informationsflut, in der Bibliothekare als Informationsexperten Suchenden den
Weg weisen, aber auch durch suchmaschinenbasierte Kataloge, die das Finden von
Literatur einfacher machen (sollen). So hat sich – zumindest in der bibliothekarischen
Fachdiskussion – zunächst der Fokus von der Recherche von Informationen, hin zu
ihrer Bewertung und Weitererarbeitung verlagert und es wurde darüber hinaus der gesamten
Prozess wissenschaftlicher Arbeit in den Blick genommen.
Dessen ungeachtet gilt, dass in der Praxis klassische Inhalte wie objektorientierte
Schulungen weiterhin überwiegen. Letztlich wird derzeit nur ein kleiner Ausschnitt
des Spektrums der Informationskompetenz abgedeckt. Zugleich haben im Zuge des Bolognaprozesses unter dem Stichwort der employability
Schlüsselkompetenzen und -qualifikationen und somit auch Informationskompetenz an
Bedeutung gewonnen.
Mit dem US-amerikanischen Referenzrahmen für Informationskompetenz aus dem
Jahr 2016, der mit dem Gedanken der threshold concepts auch Eingang in die bibliothekarische Fachdiskussion in Deutschland
gefunden hat, liegt nun ein Papier vor, das diese umfassende Sichtweise einnimmt
und zugleich nicht nur Bibliotheken, sondern auch Fakultäten und Hochschulverwaltungen
auffordert, Informationskompetenz entsprechend ihren lokalen Gegebenheiten
und individuellen Bedarfen auszugestalten.
Diesem Referenzrahmen – dem Information Literacy Framework for Higher Education
der Association of College and Research Libraries (ACRL), nachfolgend kurz
„Framework“ genannt – und seinen Chancen und Grenzen in einem konkreten Fachbereich
widmet sich vorliegende Studie.
Datenmanagement an Kunsthochschulen - Anforderungen zwischen Forschung, Vermittlung und Archiv
(2022)
In der vorliegenden Arbeit wird das Datenmanagement (DM) an Kunsthochschulen untersucht. Während im ersten Teil anhand von Fallbeispielen eruiert wird, was die Betrachtung von Kunst als Daten aus einer DM-Perspektive bedeuten kann, können durch einen vergleichenden Blick auf etablierte DM-Zyklen und -Modelle anschließend Eckpunkte für das DM in den Künsten festgehalten werden. Zuletzt tragen die FAIR Principles dazu bei, Lücken in der metadatentechnischen Abdeckung der künstlerisch-gestalterischen Werkformen zu erkennen: Dass dieses Mismatching, das insb. mit Blick auf die in DM-Systemen häufig hinterlegten (Werk-)Typologien und Klassifikationen untersucht wird, mitunter beachtliche Effekte haben kann, wird im letzten Teilkapitel der Arbeit und im Fazit verdeutlicht.
Die Handhabung von Publikationen im Bereich der Medizin und Pharmazie unterliegt besonderen Gegebenheiten, da sich die Forschung rasant entwickelt. Dies bedeutet auf der einen Seite, dass die Forscher*innen direkten Zugang zu den neusten Publikationen benötigen, zum anderen betrifft es die eigenen Veröffentlichungen, die so platziert werden müssen, dass sie Aufmerksamkeit in der Wissenschaftskommunikation erhalten. Diese Anforderungen werden aus Sicht einer medizinischen Spezialbibliothek betrachtet. Analysiert werden für die Literaturbereitstellung Web of Science, Scopus, Dimensions, und PubMed als etablierte Literaturdatenbanken und ein Discovery Service (Bibliothekssystem), Wikidata und die NFDI als Alternativen. Für die Sichtbarkeit und damit die Gewichtung der eigenen Publikationen werden bibliometrischen Kennzahlen wie der Impact Factor und der CiteScore verglichen. Außerdem werden die Altmetriken mit ihren Tools wie Altmetrics, PlumX Metric, OpenCitation, VosViewer und Scholia vorgestellt. Die Ergebnisse dieser Analyse sollen für die Anpassung der Bibliotheksinfrastruktur genutzt werden.
Die vorliegende Masterarbeit untersucht die Auswirkungen von Deepfakes auf die journalistische Praxis und beleuchtet die Bedeutung von Aufklärung und Medienkompetenz im Umgang mit dieser Technologie. Mithilfe qualitativer Expert:inneninterviews werden persönliche Perspektiven und Erfahrungen von Medienschaffenden mit Deepfakes in deren alltäglichen Arbeit erfasst, um ein tieferes Verständnis für die Herausforderungen und die notwendigen Anpassungen des Journalismus zu gewinnen.
Die Studie zeigt, dass die Wahrnehmung von und der Umgang mit Deepfakes stark von den persönlichen Erfahrungen der Befragten und deren Bewusstsein für die Technologie abhängen. Dabei unterstreichen die Ergebnisse dieser Arbeit die Notwendigkeit einer strengen Prüfung von Deepfakes, um die Glaubwürdigkeit und Integrität des Journalismus zu wahren. Es wird deutlich, dass es des technologischen Fortschritts und des menschlichen Urteilsvermögens bedarf, um manipulierte Inhalte wirksam zu erkennen und zu bekämpfen. In diesem Kontext betont die Untersuchung die zentrale Rolle der Medienkompetenz, die durch Aufklärungskampagnen und öffentliche Initiativen gefördert werden sollte, um die Fähigkeit der Journalist:innen und der Gesellschaft zur Bekämpfung von Desinformation zu stärken.
In der methodischen Reflexion werden Limitationen wie die Subjektivität der Datenerhebung und die begrenzte Stichprobengröße hervorgehoben, wodurch die Studienergebnisse als spezifische Perspektiven und nicht als universelle Wahrheiten gelten. Eine kritische Methodenbetrachtung ist essenziell, inklusive Verbesserungsvorschlägen für zu-künftige Forschung zu Deepfakes im Journalismus, wie die Erweiterung der Stichprobe und die Präzisierung der Forschungsfragen, um ein tieferes Verständnis zu entwickeln.
Die Ergebnisbetrachtung im theoretischen Rahmen verdeutlicht die Bedeutung von Medienkompetenz und Medienethik für den sorgfältigen und bedachten Umgang mit Medieninhalten, welche es sowohl unter Journalist:innen als auch in der breiten Gesellschaft zu fördern gilt. Die Überarbeitung journalistischer Standards und Arbeitsweisen angesichts digitaler Manipulation benötigt eine ständige Überprüfung ethischer Verantwortungsgrundsätze und die Entwicklung geeigneter Kontrollmechanismen. Eine ethische Zusammenarbeit aller Medienakteur:innen ist entscheidend, um die Glaubwürdigkeit journalistischer Informationen in der digitalen Medienlandschaft zu wahren. Diese erfordert eine kollektive Verantwortung und Weiterbildung von Journalist:innen, Medienorganisationen, Forscher:innen und Rezipient:innen, um wirksame Authentifizierungsstrategien und innovative Erkennungsmethoden zu entwickeln.