Refine
Year of publication
Document Type
- Master's Thesis (125) (remove)
Has Fulltext
- no (125) (remove)
Keywords
- Digitalisierung (7)
- Informationskompetenz (5)
- Wissenschaftliche Bibliothek (5)
- Social Media (4)
- Öffentliche Bibliothek (4)
- E-Learning (3)
- Elektronische Medien (3)
- Medienkompetenz (3)
- Nachhaltigkeit (3)
- Open Access (3)
Das Thema Marketing hat in den vergangenen Jahren verstärkt auch in Bibliothekseinrichtungen Einzug gehalten. Marketing-Management-Prozesse werden eingesetzt, um die Angebote und Dienstleistungen auf den Kunden auszurichten und die angebotenen Services entsprechend zu vermarkten. Die vorliegende Arbeit analysiert die Dienstleistungen der Bibliotheken der KPMG AG unter Aspekten des theoretischen und praktischen Informationsmarketings. Der theoretische Teil der Arbeit erläutert die einzelnen Phasen eines Marketing-Management-Prozesses, wobei Beispiele auf ihre Anwendbarkeit im Bibliothekswesen gegeben werden. Im praktischen Teil der Arbeit wird der Marketing-Management-Prozess auf die Gegebenheiten der Bibliotheken der KPMG AG und deren Dienstleistungen angewandt. Als Ergebnis aus der Analyse und der Bearbeitung der einzelnen Prozessphasen werden Maßnahmen genannt, die notwendig sind, um die Dienstleistungen der KPMG-Bibliotheken optimal gestalten und auf den Kunden ausrichten zu können.
Informationskompetenz ist eine entscheidende Schlüsselkompetenz im wissenschaftlichen und beruflichen Alltag. Die Suche und vor allem das Finden relevanter Informationen nehmen in unserer Gesellschaft immer mehr an Bedeutung zu. Deshalb sind der kompetente Umgang mit Informationen und die Aneignung von Wissen wichtige Voraussetzungen eines informationssouveränen Bürgers. Das Internet gehört zum Alltag heutiger Schüler, deren Informations- und Suchverhalten sich wesentlich verändert hat. Aufgrund der Neustrukturierung der schulischen Lehr- und Bildungspläne in den einzelnen Bundesländern Deutschlands nimmt die Einführung in das wissenschaftliche Arbeiten für Oberstufenschüler einen hohen Stellenwert ein. Bibliotheken werden als außerschulische Partner explizit angesprochen. Es wird den Fragestellungen nachgegangen, auf welche Modelle, Standards und Vereinbarungen zur Vermittlung von Informationskompetenz für Oberstufenschüler zurückgegriffen werden kann. In der Arbeit wird untersucht, welche Online-Angebote öffentliche Bibliotheken als Teaching Library für die Zielgruppe Gymnasiasten der Sekundarstufe II zur Vermittlung von Informationskompetenz auf ihren Webseiten anbieten. Anhand eines Kriterienkatalogs werden sowohl die Benutzerfreundlichkeit als auch die inhaltlichen Aspekte der Lernangebote analysiert und mit der Erwartungshaltung der Oberstufenschüler als „Digital Natives“ verglichen. Anschließend werden die Ergebnisse mit Angeboten wissenschaftlicher Bibliotheken verglichen, die spezielle Schülerseiten eingerichtet haben.
Die Entwicklung und der Betrieb von Bibliothekssystemen ist seit den 1980er Jahren eine unabdingbare Voraussetzung für nutzerorientierte Serviceleistungen und eine effiziente Ablauforganisation in Bibliotheken. Dies gilt auch für die internationale Bibliotheksarbeit von Kulturinstituten. Dabei nehmen das Goethe-Institut und das spanische Instituto Cervantes eine besondere Rolle ein. Beide Institute unterhalten das jeweils größte internationale Netzwerk von Spezialbibliotheken mit Landesbezug. Die vorliegende Arbeit gibt einen Überblick über die Bibliotheksarbeit der beiden Institute und verfolgt das Ziel, ein Entwicklungskonzept für die Funktionalität und Struktur des Bibliothekssystems des Goethe-Instituts zu formulieren. Grundlage dafür ist eine Darstellung der Anforderungen an ein Bibliothekssystem im internationalen Kontext und eine darauf aufbauende Analyse der gegenwärtigen Anwendungen „Allegro-C“ des Goethe-Instituts und „AbsysNet“ des Instituto Cervantes. Die Ergebnisse dieser vergleichenden Analyse bilden die Basis des Entwicklungskonzepts für das Goethe-Institut.
Hochschulbibliotheken haben heutzutage neben der traditionellen Aufgabe der Literaturversorgung und Informationsversorgung auch die Aufgabe, über ihre Website im Internet präsent zu sein und sich dort als zentraler Informationsanbieter zu positionieren. Die Webauftritte haben dabei die Funktionen als Zugangspunkt und Vermittlungsstelle für Informationen sowie als Werbemittel bzw. Instrument der Öffentlichkeitsarbeit. Im Hinblick auf die immer stärkere Benutzerorientierung der Bibliotheken werden die Webangebote von fünf Universitätsbibliotheken und einer Fachhochschulbibliothek nach diversen Kriterien analysiert: es wird herausgearbeitet, welche Inhalte auf den Websites zu finden sind, die Struktur wird näher betrachtet, ebenso wie die Navigationsmöglichkeiten, die Sprache und Textgestaltung und das Design. Da ein Benutzer das Webangebot auch finden muss, wird die Findbarkeit der Bibliothekswebsite über die Hochschulwebsite analysiert, d.h., ob die Benutzer über die Homepage der Hochschule direkt auf das Webangebot der Hochschulbibliothek gelangen können. Auch die Findbarkeit der Bibliothekswebsites über Suchmaschinen wird untersucht, da Suchmaschinen eine immer größere Rolle spielen, um geeignete Websites im World Wide Web zu finden. Dazu wird auch näher auf Maßnahmen zur Suchmaschinenoptimierung (engl. Search Engine Optimization (SEO)) eingegangen. Die Analyse zeigt, dass die untersuchten Bibliotheken in vielen Teilen bereits ein sehr benutzerfreundliches Webangebot präsentieren, es jedoch noch viel Optimierungsbedarf gibt, insbesondere im Bereich der Struktur, die viel stärker an die Bedürfnisse der Benutzer angepasst werden sollte. Ein weiteres Ergebnis dieser Analyse ist die Erstellung eines Soll-Konzeptes für benutzerfreundliche Hochschulbibliothekswebsites.
Der demografische Wandel, Stellenreduktion und eine erhöhte Fluktuation
durch Elternzeit oder Pflegezeiten für Angehörige zwingen auch die öffentliche
Verwaltung durch ein geschicktes Wissensmanagement mit einem
hocheffizienten Wissenstransfer zu reagieren. Zentraler Aspekt ist der Wissenserhalt
und die Weitergabe von Wissen vor dem Hintergrund höherer Arbeitsbelastung
bei sinkenden personelle Ressourcen. Neben grundsätzlichen
Erwägungen sind die Erfahrungen und Vorgehensweisen dreier Bundesministerien
die Basis für ein praxistaugliches Konzept des Wissenstransfers
im Bundesverwaltungsamt. Es umfasst ein Mentorenkonzept, eingebettet
in ein übergeordnetes System der strukturierten Wissensvermittlung,
die angelegt ist, auf Veränderungen frühzeitig zu reagieren und ein wir -
kungsvolles Regulativ bei Fehlentwicklungen berücksichtigt.
Die Wiederauffindung von Personen und deren Werke im Bereich der Naturwissenschaften durch Suchmaschinen, Repositorien, Internetplattformen und Bibliothekskataloge gestaltet sich für Naturwissenschaftler und Bibliotheken oft mühselig und zeitaufwendig. Als eine Ursache dafür wird die Verkürzung der Vornamen zu Initialen in Literaturangaben, Datensammlungen, Bibliothekskatalogen und sonstigen Autorenlisten angesehen, wie diese Arbeit anhand einer Erhebung im Fachpublikum nachweist. Die von Bibliotheken durchgeführten Individualisierungen, die auf den Functional Requirements for Authority Data (FRAD) beruhen, sollen diese Ursache beseitigen. Ob dieser Ansatz tatsächlich auch den Anforderungen von Naturwissenschaftlern an Personennamendatensätzen in Personennamendatenbanken entspricht, wird ebenfalls anhand der Interviewergebnisse erörtert. Als Ergebnis wird festgestellt, dass die Anforderungen der Naturwissenschaftler durch eine strenge Auslegung der Empfehlungen der FRAD weitgehend erfüllt sind. Jedoch sollten sie auch auf die Erfassung unselbstständiger Werke angewendet werden.
Das Thema „Demografischer Wandel“ ist in Deutschland eines der Leitthemen des politischen und gesellschaftlichen Diskurses zu Beginn des 21. Jahrhunderts. Die Arbeit widmet sich vor diesem Hintergrund den zentralen Forschungsfragestellungen, wie wissenschaftliche Bibliotheken sich in ihrer recht unterschiedlichen typologischen Verfasstheit aktuell auf das Thema „Demografischer Wandel“ eingestellt und ob sie es für sich als einen Indikator für Zukunftsfähigkeit identifiziert haben. Wie werden und wie können sie in einer Zeitperspektive von 10 – 15 Jahren mit dem Thema umgehen?
Wachsende Anforderungen, steigende Kosten und geringe finanzielle Mittel - es ist nicht gewagt zu prognostizieren, dass sich viele Bibliotheken in Deutschland auch in Zukunft diesem scheinbar ausweglosen Dilemma stellen müssen. Um die finanziellen Engpässe zu kompensieren und die wissenschaftliche Literatur- und Informationsversorgung weiterhin sicherzustellen, sind wissenschaftliche Bibliotheken gezwungen, die Grundfinanzierung aus staatlichen Zuschüssen durch private Fördermittel zu ergänzen. Doch verglichen mit öffentlichen Bibliotheken, sind alternative Finanzierungsmodelle in wissenschaftlichen Bibliotheken eher noch selten anzutreffen.
Die Masterarbeit führt in die Grundbegriffe des Fundraising ein, unterzieht ausgewählte alternative Finanzierungsinstrumente einer Vor- und Nachteilanalyse und entwickelt darauf basierend ein Vergleichsschema. Dies dient dazu, wissenschaftlichen Bibliotheken Herausforderungen, Möglichkeiten und Grenzen beim Einsatz alternativer Finanzierungsbausteine aufzuzeigen.
Ziel der Masterarbeit kann und wird dabei nicht sein, eine fertige one-fits-all-Lösung zu präsentieren, wohl aber eine Empfehlung für alternative und innovative Funding-Strategien auszusprechen.
Trotz wachsender Nutzungszeiten der neuen Medien wird kein Rückgang in der Nutzung der klassischen Medien beobachtet. Die Schlussfolgerung liegt nahe, dass die Hinwendung zu Medien vermehrt hybrid anstatt exklusiv erfolgt.
Zur besseren Bearbeitung der Märkte und zur gezielteren Mediaplanung ist eine zielgruppengerechte Ansprache unumgänglich. Hierfür eignet sich das Aufteilen der Märkte in spezifische Segmente. An diesem Punkt setzt die vorliegende Arbeit an. Aufbauend auf einer qualitativen Studie von Ziems (2012) wurden in einer quantitativen Online-Befragung von 321 Personen drei Segmente zur hybriden Mediennutzung extrahiert: der stimmungsregulierende "radiolose" Hybridnutzer, der zweckorientierte Silver Surfer und der junge kommunikative Skeptiker. Dazu wurden zunächst vier Merkmale zur Einstufung der Einstellung gegenüber der Mediennutzung faktoranalytisch erhoben. Hier lassen sich die Dimensionen reduzierte Skepsis, Kommunikation, Zweckorientierung und Vernetzung unterscheiden. Gemeinsam mit einer Einstufung der Intensität der parallelen Nutzung verschiedener Medien wurden diese Faktoren in die Clusterbildung einbezogen. Anschließend wurden die gebildeten Segmente anhand soziodemografischer Variablen und der Big Five-Persönlichkeitskonstrukte beschrieben.
Bibliotheken scheinen mit dem Ende der Buchkultur in eine Identitätskrise zu geraten und sich bei der Auseinandersetzung mit ihrer Zukunft mit enormen Herausforderungen konfrontiert zu sehen. Die Bedeutung von strategischer Neuausrichtung als Managementaufgabe der Zukunftsbewältigung ist, wie ein Blick in die bibliotheksfachliche Literatur zeigt, nicht sonderlich ausgeprägt. Es stellt sich daher die Frage, ob Anleihen oder Übertragungen des systemischen Strategiedenkens, wie es in der Literatur von Reinhart Nagel und Rudolf Wimmer dargestellt wird, für diesen Typ Kultureinrichtung erfolgreich sein können. Nach der Darstellung des Ansatzes systemischer Strategieentwicklung nach Nagel und Wimmer, folgt eine Untersuchung, ob eine Adaption dieses Ansatzes in Hochschulbibliotheken machbar ist und es diesen ermöglicht, sich im Sinne des strategischen Managements als „lernende Organisation“ neu aufzustellen und sich damit dynamisch anpassbar zu machen. Die Arbeit mündet unter Berücksichtigung von möglicherweise aufkommenden Schwierigkeiten der Strategiearbeit innerhalb der Organisation in einen (Vorgehens-) Vorschlag für die Einführung eines systemischen Verfahrensmodells für Hochschulbibliotheken.
In Anwaltskanzleien wird mit den Mandanten immer mehr per E-Mail kommuniziert.
Darunter befinden sich zahlreiche steuerrelevante oder beweiskräftige E-Mails mit
Anhängen. Kanzleien sind u.a. aus gesetzlichen Gründen dazu verpflichtet, diese
dauerhaft digital zu archivieren. In einer internationalen Großkanzlei müssen dazu noch
unterschiedliche Rechtsprechungen, Arbeitskulturen und Sprachen berücksichtigt
werden.
Die vorliegende Arbeit untersucht die Situation der digitalen Langzeitarchivierung am
Fallbeispiel einer internationalen Großkanzlei mit 29 Büros in 20 Ländern. Die Arbeit
konzentriert sich auf die E-Mailarchivierung und die digitale Archivierung von
Objekten für den persönlichen Gebrauch jedes Kanzleimitarbeiters. Aufgrund fehlender
spezifischer Literatur wird die Ausgangslage mithilfe von Experteninterviews erhoben.
Die Interviews werden ausgewertet und am Ende der Arbeit systematisiert
zusammengefasst.
Marken durchdringen die Öffentlichkeit, indem sie Personen, Organisationen, Dienstleistungen, Unternehmen und Produkte repräsentieren. Jede Marke verkörpert folglich ein Markenobjekt oder einen Markenabsender. Trotz der Vielzahl an Markenobjekten, setzt sich jede Marke aus den gleichen Komponenten zusammen: Eine formale Markierung in Form eines Namens oder eines Schriftzugs grenzt die Marke zu anderen Marken ab. Neben dieser Differenzierung besteht eine Marke vor allem aus der inhaltlichen Perspektive: Jeder Markenabsender sendet ein Selbstbild aus, das seine Identität verkörpert. Diese Inhalte und Informationen der Marke werden von den Markenrezipienten wahrgenommen und verarbeitet und auf Basis von Erfahrungen, Empfindungen und Voreinstellungen verarbeitet. Daraus entwickelt sich ein externes Bild der Marke, das Fremdbild oder Image. Aus diesem Zusammenspiel zwischen gesendetem Selbstbild und wahrgenommenem Fremdbild entwickelt sich der Wert einer Marke. Je mehr die interne und externe Perspektive dabei übereinstimmen, desto besser und stabiler ist der Markenwert zu beurteilen: Die Markeninhalte sind bei den Markenrezipienten verankert, werden von ihnen akzeptiert und vielleicht in der Öffentlichkeit vertreten.
Auf diese Weise entwickelt sich jede Marke. Zeitgleich gibt es relevante Unterschiede, die es in der jeweiligen Markenbewertung zu beachten gilt: Treten Unternehmen als Marken auf, dann sind es das Leitbild und die Unternehmensvision, die die Identität der Marke prägen. Als Markenabsender tritt die Gruppe hinter der Marke auf, also die Unternehmensvertreter wie Management und Mitarbeiter. Zudem ist der Markt relevant, auf dem die Marke auftritt. Im Business-to-Business-Geschäft überzeugen vor allem die Faktoren Risikoreduktion und Informationseffizienz einer Marke.
Diese theoretischen Grundlagen behandelt die Master-Thesis „Behind-the-brand. Welche Treiber bestimmen die externe Markenwahrnehmung? Eine Analyse vom Selbst- und Fremdbild eines B-to-B-Unternehmens.“ und sie setzt in Relation zu einer praxisorientierten Untersuchung: Der Markenwert eines B-to-B-Marken-Unternehmens im Spannungsfeld zwischen aufgestelltem Selbstbild und attestiertem Fremdbild aus Kundensicht. Zudem sollen relevante Faktoren aufgedeckt werden, die diesen Markenwert wiederum beeinflussen – ob stärken oder schwächen. Am Ende steht der Wert der Marke und des Unternehmens.
Diese Masterthesis wurde unter der Leitung von Prof. Dr. rer. nat. Matthias Fank von der Fachhochschule Köln im Zeitraum vom 02. Mai bis 22. August 2013 in dem Unternehmen Infospeed GmbH angefertigt. Der Zweitprüfer ist Dipl. – Betriebswirt Jan Krömer von Infospeed GmbH.
Bei der vorliegenden Thesis handelt es sich um eine Entwicklung eines Verfahrens zur Reichweitenmessung von Beiträgen in Blogs und auf Facebook. In vielen Unternehmen stellt die Reichweitenmessung ein wichtiges Thema dar. Doch um den Markt abbilden und auch kommerziellen Anbietern Kennzahlen und Orientierung zu bieten, wird ein transparentes, abgestimmtes Instrumentarium zur Messung und Zählung der Akzeptanz im Internet immer wichtiger.
Die für die Arbeit benötigten Kennzahlen der Reichweitenmessung in Blogs stammen aus Internetrecherchen. Lediglich die Kennzahlen für die Messung auf Facebook, die von Infospeed GmbH zur Verfügung gestellt werden, stammen dabei von wahren Facebookauftritten unterschiedlich großer Unternehmen.
Der Fokus dieser Arbeit ist die Messung von Nutzerreichweiten in Blogs und Facebook. Da diese in der Regel schwer zu erfassen sind, soll ein Verfahren für Blogs und Facebook entwickelt werden, bei dem anhand von verschiedenen Kennzahlen (PI, Google Page Rank, UU‘s etc.) ein Richtwert errechnet wird, der einen ausreichenden Anhaltspunkt über echte Nutzerreichweiten liefert.
Die Arbeit verfolgt das Ziel, durch Versuche ein geeignetes Verfahren zu erstellen, welches für die oben genannte Art von Reichweitenmessung angewendet werden kann. Dabei soll die Wirksamkeit dieses Verfahrens untersucht werden und inwieweit die Richtwerte, bspw. für Marktforschungszwecke angewendet werden können.
Es wird behauptet, dass anhand der erstellten Versuche echte Besucherkennzahlen ermittelt werden können. Im Laufe der Versuchsdurchführungen wurde jedoch herausgefunden, dass kein Verfahren entwickelt werden konnte, welches die Thesen für die Bereiche Blogs und Facebook bestätigt.
Da Betreiber von Blogs und Facebook gerne mit der Angabe von Reichweitenkennzahlen tricksen, stellt sich eine große Herausforderung bei der Standardisierung der Online-Reichweitenmessung dar. Es ist aber davon auszugehen, dass das Thema weiter an Bedeutung gewinnen wird.
In der vorliegenden Arbeit werden Möglichkeiten zum Einsatz interaktiver Elemente auf Bibliothekswebsites beschrieben und deren zukünftige Relevanz untersucht. Nach einer Begriffsdefinition wird die Notwendigkeit für den Einsatz interaktiver Elemente anhand von Kriterien aus dem technischen, kulturellen sowie institutionellen Umfeld abgeleitet. Eine Auswahl an Websites von Bibliotheken sowie von Anbietern außerhalb des Bibliothekswesens wird analysiert, um geeignete Umsetzungen zu identifizieren. Durch eine Evaluation wird ersichtlich, welche interaktiven Elemente für Bibliothekswebsites sowie insbesondere für die Website der Bayerischen Staatsbibliothek sinnvoll erscheinen. Konkrete Empfehlungen zur Umsetzung und Integration von interaktiven Elementen werden gegeben.
Non-Profit-Organisationen befinden sich derzeit in einer Gesellschaft, die durch funktionsübergreifendes Arbeiten und schnelle Technologiewechsel gekennzeichnet ist. Wettbewerb, Trends und ein sich veränderndes Nutzerverhalten im Internet, erfordern einen Strukturwandel in der Medienkommunikation. Um heterogene Zielgruppen zu erreichen wird es für Non-Profit-Organisationen immer wichtiger ihre Sprache zu sprechen und ihre Kommunikationstechnologien zu beherrschen. Der Kunde von heute setzt sich aktiv mit Produkten, Angeboten und Dienstleistungen über Foren und Blogs auseinander. Daher müssen Werbemaßnahmen eingesetzt werden, die das entsprechende Nutzungsverhalten aufgreifen. Mit Inbound-Marketing steht ein Marketingprozess zur Verfügung, der auch Kunden einer Non-Profit-Organisation im Kontext einer Content-Marketing-Strategie durch informierende und emotionalisierende Inhalte begeistern und überzeugen kann. Konnten Kunden erfolgreich gewonnen werden, ist die Grundlage eines effektiven Content-Marketings und einer zukunftsweisenden zielgruppenspezifischen Marketingarbeit hinsichtlich kundenspezifischer Medienkanäle, der Erhöhung von Rückverweisen zu einer Webseite im Bereich der Suchmaschinenoptimierung und Mund-zu-Mund-Propaganda gelegt.
Junge, heranwachsende Menschen weisen ein besonders auffälliges Bewegtbildnutzungsverhalten auf. Die vorliegende Arbeit liefert einen Beitrag dazu, dieses Verhalten besser zu verstehen. Zwar existieren bereits einige Studien, die sich mit diesem Thema auseinandersetzen, diese dienen jedoch eher der quantitativen Beschreibung des Verhaltens und tragen recht wenig dazu bei, das Verhalten zu verstehen. In der vorliegenden Arbeit wird das Bewegtbildnutzungsverhalten junger Menschen deshalb im Sinne eines besseren Verständnisses empirisch untersucht. Das Thema Video on Demand findet dabei als für diese Altersgruppe potenziell sehr attraktiver Beschaffungsweg besondere Berücksichtigung. In der Vorbereitung des empirischen Teils der Arbeit werden zunächst die Begriffe Bewegtbild und Video on Demand umfassend erklärt, grundlegende Erkenntnisse der Konsumentenverhaltensforschung dargelegt und der aktuelle Stand der Forschung aufgearbeitet. Den Schwerpunkt dieser Arbeit bildet die anschließende qualitative Befragung von insgesamt 16 Probanden im Alter zwischen 14 und 29 Jahren. Diese Probanden wurden ausführlich zu verschiedenen Aspekten ihres Bewegtbildnutzungsverhaltens interviewt und die Ergebnisse unter Anwendung der qualitativen Inhaltsanalyse nach Mayring systematisch ausgewertet und strukturiert.
Diese Masterarbeit vergleicht vier verschiedene Persistent Identifier Systeme (PI-Systeme) auf Grundlage von Kriterien systematisch miteinander. Dabei werden der Uniform Resource Name (URN) im Namensraum urn:nbn:de, das Handle-System, der Digital Object Identifier (DOI) und Archival Resource Key (ARK) für den Vergleich herangezogen. Persistent Identifier (PI) stehen im Gegensatz zu URLs speicherortunabhängig zur Verfügung und können somit dauerhaften Zugang zu digitalen Objekten gewährleisten, sodass diese nachhaltig zitierfähig sind. Als Grundlage für die Untersuchung wird der in der DIN 31646 enthaltene Kriterienkatalog verwendet. Dieser wurde mit dem Fokus auf die Langzeitarchivierung von Dokumenten erstellt. In diesem Zusammenhang sind einzelne Aspekte des Kataloges nicht oder nur sinngemäß auf einige der PI-Systeme anwendbar. Darüber hinaus ist die Funktionsweise von Resolver-Diensten von PI-Systemen ein zentraler Gesichtspunkt des Kriterienkataloges. Auf das ARK-System sind die diese Dienste betreffenden Merkmale nicht oder nur analog anwendbar, da es nicht auf dem Resolver-Prinzip beruht. Trotz dieser Einschränkungen kann ein umfassender Vergleich erfolgen. Im Wesentlichen sind alle vier PI-Systeme ausgereifte Methoden, um digitale Ressourcen dauerhaft nachzuweisen. Die zentralen Unterschiede ergeben sich vor allen Dingen aus den Zielsetzungen der PI-Systeme selbst. Bei der URN steht die Langzeitarchivierung der Ressourcen im Vordergrund. Damit erfüllt sie sie meisten Kriterien des Kataloges. Die drei anderen Systeme sind weniger auf eine Langzeitarchivierung der Objekte angelegt, als vielmehr auf einen dauerhaften Nachweis über festgeschriebene Metadatenschemen, die die PIs zitierfähig halten, selbst wenn das Objekt an sich nicht mehr existiert. Ferner gibt es Unterschiede in der technischen Umsetzung der PI-Systeme. Das Handle-System ist ein eigens entwickeltes System, worauf auch die DOI basiert. URN und ARK fußen auf der Nutzung des Domain-Name-Systems (DNS) und bauen auf ihr auf. Überdies unterscheiden sie sich in ihren Finanzierungsmodellen, wobei URN und ARK kostenfrei zur Verfügung stehen, dagegen die Nutzung von DOI und Handle mit Gebühren verbunden ist.
Das Goethe-Museum in Düsseldorf wurde 1953 auf Basis der privaten Goethe-Sammlung des Verlegers und Inhabers des Insel Verlags in Leipzig, Anton Kippenberg (1874-1950), gegründet. Die Entstehung dieser größten in privater Hand befindlichen Goethe-Sammlung aus Originalzeugnissen der Goethezeit wird durch eine Sondersammlung aus der ersten Hälfte des 20. Jahrhunderts dokumentiert, die seit vielen Jahren zum Bestand des Goethe-Museums gehört. Im Zuge einer Neuordnung wurde diese nicht erschlossene Sondersammlung als Teilsammlung in die wissenschaftliche Spezialbibliothek des Goethe-Museums eingegliedert. Die Arbeit zeichnet die Aufarbeitung dieser Sondersammlung nach. Nach der Bestandsaufnahme, einer Neuordnung und Beschreibung der in ihr enthaltenen Materialien folgt eine Analyse anhand einzelner Kriterien. Vorgestellt wird anschließend das Portal, mit dem die Sondersammlung erschlossen und sichtbar gemacht werden soll. Im letzten Kapitel wird beschrieben, welche Bedeutung die Sondersammlung für das Goethe-Museum hat, welcher Erkenntniswert heute daraus gezogen werden kann und welche Perspektiven sich durch die Nutzung ergeben.
Juristische Spezialbibliotheken internationaler Großkanzleien erbringen vielfältige Informationsdienstleistungen für ihr Unternehmen. Häufig zählt zu diesen die Vermittlung von Informationskompetenz in Form von Schulungsangeboten für neue juristische Mitarbeiter der Kanzlei. In welcher Form Informationskompetenzvermittlung in internationalen Kanzleibibliotheken stattfindet und wie sich ein generelles Konzept für Großkanzleien gestalten kann, sind die zentralen Fragestellungen dieser Arbeit, die anhand des Fallbeispiels – der Wirtschaftskanzlei Linklaters LLP – untersucht werden.
In dieser Masterarbeit werden ausgewählte Methoden zur Messung der User Experience dargestellt und analysiert. Als Grundlage der ausgewählten Methoden wurde die Studie, die im Paper „User Experience Evaluation Methods: Current State and Development Needs“ vorgestellt wird, und die dazugehörige Webseite www.allaboutux.org gewählt.
In der Arbeit werden die folgenden Forschungsfragen untersucht und beantwortet.
Forschungsfrage 1: Welchen Stand bzw. welches Wissen hat die Forschung heute (2015) im Bereich der User Experience?
Der Begriff wird definiert, von der Usability abgegrenzt, die Entstehung von User Experience skizziert, sowie wichtige Begriffe vorgestellt. Zudem wird der Begriff im historischen Kontext eingeordnet.
Forschungsfragen 2: Welche Methoden der User Experience können für das Web und Software in welchen Bereichen sinnvoll eingesetzt werden, um die Erfahrungen / Erlebnisse der Benutzer zu ermitteln?
Forschungsfrage 3: Inwiefern ist die User Experience durch diese Methoden messbar?
Forschungsfrage 4: Welche Methoden werden in der Realität wirklich angewandt? Sind Methoden veraltet oder werden nur in der Theorie verwendet?
Um Antworten auf die Frage zu finden, wird eine schon bestehende Studie vorgestellt und die Erkenntnisse mit denen zweier eigener Umfragen zusammengetragen.
Abschließend wird ein Zukunftsausblick für den Umgang mit der Messung von User Experience gegeben.
Self-Tracking ist mittlerweile in alle Bereiche des persönlichen Lebens vorgedrungen. Mithilfe von Wearables wie Aktivitätstrackern und anderen Smart Devices wie Smart Glasses sowie Apps werden Daten über die eigene Person aufgezeichnet. Dabei werden zum Beispiel sportliche Aktivitäten, Ernährung, Stimmung und physische Daten dokumentiert. In dieser Arbeit werden – auf Basis aktueller Marktforschungs-Methoden sowie einer Markt- und Wettbewerbsanalyse – im Rahmen von Experteninterviews mögliche Einsatzbereiche von Self-Tracking in der qualitativen Marktforschung diskutiert. Es wird beurteilt, welchen Nutzen Self-Tracking für Werbeforschung, ethnografische Forschung, Customer Experience-Forschung und Mystery Shopping bringt und inwiefern es bestehende Methoden ergänzen oder ersetzen kann.
Die überregionale Literaturversorgung in Deutschland hat ihre Wurzeln im beginnenden 20. Jahrhundert und hat sich seitdem dank der Förderung durch die Deutsche Forschungsgemeinschaft und ihrer Vorgängerinstitution beständig weiterentwickelt. Die vorliegende Arbeit beschreibt diese Entwicklung von den ersten Überlegungen zum kooperativen Bestandsaufbau über den Ausbau der überregionalen Literaturversorgung anhand der Sondersammelgebiete zur verteilten nationalen Forschungsbibliothek bis zur Umgestaltung in die Fachinformationsdienste für die Wissenschaft. Anschließend werden einzelne, sowohl inhaltliche als auch strukturelle Aspekte dieses neuen Förderprogramms einer kritischen Analyse unterzogen, wobei ein besonderes Augenmerk auf die praktische Umsetzbarkeit und die möglichen Folgen für die deutsche Informationsinfrastruktur gerichtet wird.
Die ungebrochen rasante Entwicklung digitaler Technik erzeugt wachsenden Druck auf die textorientierte Geschichtswissenschaft. Diese sieht sich von Forschungsförderung und Teilen der eigenen Fachgemeinde in den letzten Jahren zunehmend aufgefordert, dezidierter ihre Position innerhalb des umfassenderen gesellschaftlichen Prozesses des digitalen Wandels zu bestimmen. In der geschichtswissenschaftlichen Forschung stehen die Spezialbibliotheken als Forschungsstätte vor der Herausforderung, ihre Anteile von Speicherort für Medien und Lernort für Forschende neu zu gewichten. Dies vor dem Hintergrund einer stetig zunehmenden Dematerialisierung durch Digitalisierung der Ressourcen auf entfernten Servern. Was für die technikaffinen Naturwissenschaften die gänzlich virtuelle Bibliothek attraktiv macht, scheint auch für die geschichtswissenschaftliche Spezialbibliothek das Auslaufen analoger Buchzentriertheit nahezulegen. Das seit 20 Jahren in der Fachdiskussion so genannte Modell der Hybridbibliothek erweist sich hier als ein bislang tragfähiges Dauerkonzept bei der funktionalen und konzeptionellen Orientierung. Es garantiert der textorientierten Geschichtswissenschaft auch nach dem gegenwärtigen Stand der Diskussion Wissensgenerierung durch Verwendung digitaler Forschungsressourcen bei gleichzeitig haptischräumlicher Präsenz einer Sammlung. Mit Fokus auf die geschichtswissenschaftliche Spezialbibliothek des Deutschen Historischen Instituts Paris, eines der 10 Forschungsinstitute der Max-Weber-Stiftung, soll das Konzept Hybridbibliothek in dieser Arbeit mit dem Diskussionsstand 2015 evaluiert und Argumente für seine bewusste Anwendung in den Spezialbibliotheken der Max-Weber-Stiftung gesichtet werden.
Die Unternehmensform der Teststudios, die als Felddienstleister eine bedeutende Rolle innerhalb des Marktforschungsprozesses einnehmen, wurde bisher unter wissenschaftlichen Gesichtspunkten noch nicht näher untersucht. Die vorliegende Arbeit möchte deshalb anhand der Ableitung einer wissenschaftlichen Definition sowie der Erfassung und Beschreibung aller als Teststudio am deutschen Markt aktiven Dienstleister eine Grundlage für zukünftige Forschungsfragen legen. Außerdem möchte sie auf Basis der geschaffenen Grundlage einer eigenen Fragestellung nachgehen. Dazu werden zunächst aus der vollständigen Aufstellung der Anbieter verschiedene Typen von Teststudios abgeleitet und besondere Merkmale der Unternehmen identifiziert. Es zeigt sich, dass sich die am Markt befindlichen Teststudio-Anbieter in die „reinen Teststudios“ und die Mischformen untergliedern lassen. Als Mischformen werden all jene Studios verstanden, die einem Forschungsinstitut angehören, während die reinen Teststudios eigenständige Unternehmen sind, die sich allein auf die Bereitstellung der klassischen Teststudio-Dienstleistungen fokussieren. Wodurch sich jene Teststudio-Leistungen auszeichnen, wird im Rahmen dieser Arbeit ebenfalls behandelt. Auf Basis jener Ergebnisse geht die Arbeit im Folgenden außerdem der Frage nach, welche Determinanten Kunden von Teststudios in ihrer Auswahl eines geeigneten Dienstleisters beeinflussen. Jene Frage stellt den zentralen Forschungsgegenstand dieser Arbeit dar und wird anhand einer empirischen Untersuchung erörtert. Zu diesem Zweck werden qualitative Interviews mit den verschiedenen Akteuren der Branche – Forschungsinstitute, betriebliche Marktforscher und Teststudios – geführt, und auf die Frage hin ausgewertet, wie sich der Auswahlprozess im Detail gestaltet und welche Faktoren auf ihn einwirken. Wie sich zeigt, unterliegen die Kunden – die zumeist durch Forschungsinstitute, in seltenen Fällen aber auch durch betriebliche Marktforscher repräsentiert werden – in ihrem Entscheidungsprozess zahlreichen Einflussfaktoren, wobei die jeweiligen Projektvorgaben und Rahmenbedingungen der durchzuführenden Studie die größte Wirkung auf das Auswahlverhalten ausüben. Aber auch personen- und umweltbezogene Determinanten wie persönliche Präferenzen, vergangene Erfahrungen und Verfahrensvorgaben innerhalb des Kundenunternehmens wirken auf den Entscheidungsprozess ein. Sie bestimmen schließlich, welche Eigenschaften der Teststudios vom Auswählenden als besonders wichtig bewertet werden, sodass er schließlich entsprechend jener Gewichtung den optimal geeigneten Anbieter auswählen kann.
Besonders kleinere stationäre Geschäfte haben seit Jahren mit der florierenden Konkurrenz des Online-Handels zu kämpfen. Die Nutzung von neuen digitalen Möglichkeiten stellt dabei eine Chance für Einzelhändler dar. Ein Ansatz liegt in der Ausbringung von ortsbasierten Marketinginhalten an Smartphone-Nutzer. Ob es gelingen kann, das Interesse der Käuferschaft für den lokalen Handel mittels Mobile Marketing wiederzuerwecken, ist das Bestreben des umfangreich angelegten Pilotprojektes Digitales Viertel im Kölner Stadtteil Sülz/Klettenberg. Diese Arbeit mit dem Thema Digitales Standortmarketing im stationären Handel. Händlerbefragung im ‚Digitalen Viertel’ des Kölner Stadtteils Sülz/Klettenberg nimmt als qualitative Teilstudie des Projektes die Sicht der Händler ein. Dabei widmet sie sich unter anderem der Fragestellung: Was bringt ein digitalisiertes Viertel für den Handel und was bringt ein digitalisierter Handel für das Viertel? Die Beantwortung der Fragen erfolgt durch die Diskussion bestehender Theorie im Zusammenspiel der Analyse der eigenständig durchgeführten empirischen Leitfadeninterviews mit erfahrenen Händlern. Es werden grundlegende Ansichten und Herausforderungen der Händler vor Ort sowie deren Einstellungen gegenüber der digitalen Entwicklung und dem konkreten Projekt eruiert. Die Ergebnisse unterstützen einerseits weitere Online-Befragungen im Projekt, andererseits wurden Handlungsempfehlungen entwickelt. Die Analyse ergab, dass sich die Einzelhändler in einem Zwiespalt zwischen analoger und digitaler Welt befinden. Zwar sind Aufgeschlossenheit und Neugier festzustellen, dennoch richten sich große Zweifel an das Kölner Experiment. Indes zeigen die Händler in ihrer Zukunftsvision ein ganz ähnliches Szenario auf. Es konnten jedoch auch Grenzen ausgemacht werden, die ebenso Beachtung finden.
Seit den drei Open-Access-Erklärungen in Budapest, Bethesda und Berlin Anfang der 2000er Jahre hat sich einiges am Publikationsverhalten geändert. Um einen optimalen Aktionsplan zur Open-Access-Förderung zu erstellen, werden daher die bisherigen Open-Access-Strategien der Hochschulen und ihren Bibliotheken beleuchtet. Hierzu erfolgt zuerst eine Einführung in das Thema Open Access, indem zuerst die historischen Meilensteine der Förderung dieses Publikationsweges genannt werden. Im Anschluss werden die notwendigen Bausteine zu einer ganzheitlichen Open-Access-Strategie genannt, so dass dann der bisherige Entwicklungsstand an den deutschen Hochschulen in Erfahrung gebracht werden kann. Die Informationen zu den bisherigen Strategien werden mit Hilfe einer Analyse von 111 Hochschul- und Bibliothekswebseiten ermittelt. Für diese wird ein Fragebogen genutzt, welcher auf den Kriterien der Arbeitsgruppe Open Access der Schwerpunktinitiative und Digitale Information der Allianz der deutschen Wissenschaftsorganisationen basiert und durch eine quantitative Auszählung der Open-Access-Informationspunkten auf den einzelnen Webseiten ergänzt wird. Im Anschluss erfolgt eine Expertenbefragung von fünf ausgewählten Open-Access-Verantwortlichen. Zusätzlich wird das Publikationsverhalten der Wissenschaftler der Technischen Universität ermittelt und die Lizenzen mit Zweitveröffentlichungsrechten identifiziert. Aus den gewonnenen Erkenntnissen wird eine umfangreiche Strategie entwickelt, um Open Access an der Technischen Universität voranzubringen und einen DFG-Förderantrag zu stellen. Die Analyse zeigt auf, dass 71 Hochschulen Informationen zu Open Access bereitstellen und es eine eindeutige Dominanz der öffentlichen Hochschulen gegenüber den Privaten gibt. Der Anteil an Open-Access-Publikationen der Technischen Universität Kaiserslautern beträgt 2016 13,12 %. Zudem lässt sich eine Steigerung hin zu Open Access innerhalb der letzten zweieinhalb Jahre erkennen. Zusätzlich lässt sich feststellen, dass die Hälfte der lizenzierten Zeitschriften eine Option zur Zweitveröffentlichung bieten. Bei der Entwicklung des Aktionsplans wurden schon einige Punkte des Planes bereits umgesetzt. So konnte im März 2016 eine Open-Access-Policy verabschiedet und im August eine Open-Access-Seite eingerichtet werden. Bezüglich der Förderung des goldenen Weges müssen im Vorfeld der Antragsstellung an der Technischen Universität Kaiserslautern noch einige Punkte geklärt werden. Folgende Details bezüglich der Einrichtung eines Publikationsfonds sind im Voraus zu regeln: Abklärung der notwendigen Fördersumme mit der Universitätsleitung, die Organisation der Rechnungsabwicklung und die Mittelverteilung. Ergänzt werden diese Schritte durch Überlegungen mit welchen Verlagen ein Abschluss von Rahmen- oder Offsetting-Verträgen bzgl. der Author Processing Charges vorteilhaft wäre. Die Förderung des grünen Wegs kann durch die Ermittlung der Lizenzbedingungen zum Zweitveröffentlichungsrecht erfolgen.
Informationskompetenz stellt eine Schlüsselqualifikation dar und legt den Grundstein für den Erwerb neuen Wissens. Bibliotheken haben es sich zur Aufgabe gemacht, diese wichtige Fähigkeit zur effektiven Suche, Verarbeitung und Verbreitung von Informationen zu fördern. An der Universitäts- und Stadtbibliothek Köln findet die Vermittlung von Informationskompetenz unter anderem in der Veranstaltung „Techniken wirtschaftswissenschaftlichen Arbeitens“ statt. Welchen tatsächlichen Erfolg diese Schulung bringt, lässt sich mit gängigen Fragebogen jedoch nicht erfassen. Aus diesem Grund wurden unter Bezugnahme bereits vorhandener Untersuchungen zwei Multiple-Choice-Tests entwickelt, die von den Studierenden in elektronischer Form über das E-Learning-System der Universität Köln absolviert wurden. Dabei wurde je ein Test vor und nach Besuch des Kurses durchgeführt. Die Auswertung der Resultate zeigt, dass eine Verbesserung der Testergebnisse nach Teilnahme an der Bibliotheksveranstaltung eingetreten ist. Dies kann als Beweis für den Erfolg der Schulungsveranstaltung angenommen werden. Die Untersuchung zur Güte des entwickelten Messinstruments zeigt jedoch, dass, aufgrund nicht repräsentativer Stichprobengröße, ein weiterer Testdurchlauf stattfinden sollte, bevor das Instrumentarium in einen Regelbetrieb übergehen kann.
In Zeiten einer zunehmend digitalisierten und vernetzten Gesellschaft stehen Informationsanbieter vor enormen Möglichkeiten aber auch Herausforderungen. Um Benutzern gebrauchstaugliche Anwendungen im Internet zur Verfügung zu stellen, haben sich Verfahren etabliert, welche die Nutzenden gezielt analysieren, ihren Umgang mit einer Anwendung beobachten oder bereits im Vorhinein Erkenntnisse über den Kontext der potenziellen Nutzung erheben. Von derartigen Entwicklungen nicht unberührt, sind die Anbieter von wissenschaftlichen Fachportalen in der Verantwortung, den Forschenden adäquate Lösungen zur Verfügung zu stellen und den Anforderungen und Bedürfnissen der Informationssuchenden gerecht zu werden. Im theoretischen Teil werden zunächst grundlegende Begriffe aus den Bereichen der User Experience Research und der Web Usability vorgestellt. In einem Kriterienkatalog werden ausgehend aus diversen Fachartikeln, Methodenhandbüchern und Fact-Sheets, die wesentlichsten Aspekte zu den ausgewählten Methoden der Usability-Evaluation zusammengefasst. Da sich die Arbeit speziell mit der Evaluation von wissenschaftlichen Fachportalen auseinandersetzt, werden die bestehenden Kriterien abschließend in diesem Zusammenhang bewertet. Im praktischen Teil dienen die Erkenntnisse aus dem Kriterienkatalog dazu, eine Usability-Studie für das Fachportal des Kompetenzzentrums für Frauen in Wissenschaft und Forschung durchzuführen. Zu Beginn bildet eine Wettbewerbsanalyse einen Überblick über Leistungen und Anwendungen des Fachportals, im Vergleich zu verwandten Web-Portalen. Im Weiteren umfasst die Studie sowohl qualitative (Interviews, Usability-Test, Thingking aloud) wie quantitative Verfahren (Online Survey, Web Analytics), aber auch analytische Ansätze (Heuristic Evaluation, Cognitive Walkthrough). Die Kernergebnisse werden chronologisch nach Verlauf der Forschungsmethoden vorgestellt. Abschließend werden die wesentlichen Erkenntnisse in einem Fazit zusammengefasst und der Ausblick auf weitere Forschungsvorhaben offenbart.
Die weltweit hohe Anzahl an mobilen Endgeräten rückt die Usability von mobilen Websites immer stärker in den Focus. Eine „gute“ Usability einer mobilen Website wirkt sich unmittelbar auf das Verhalten der Nutzer aus. Mobile Usability-Tests lassen Rückschlüsse auf die Nutzerfreundlichkeit einer mobilen Website zu und decken Optimierungspotenzial auf. Um möglichst präzise Untersuchungserkenntnisse zu erzielen, sollte die Wahl des Equipments für den Test nicht unbedacht getroffen werden. Diese Arbeit untersucht, ob die Verwendung von Laborsmartphones statt benutzereigenen Smartphones das Testergebnis beeinflusst. Dies wird anhand von zwei mobilen Usability-Tests, mit einer Versuchs- und einer Kontrollgruppe, überprüft. Die Versuchsgruppe nutzt für den Test ein Laborsmartphone mit einem Android Betriebssystem. Dieses wird ihnen von der Technischen Hochschule Köln zur Verfügung gestellt. Die Kontrollgruppe nutzt für den mobilen Usability-Test ihr benutzereignes Smartphone mit einem Android Betriebssystem. Die Testergebnisse beider Gruppen werden gegenübergestellt und ausgewertet. Die Auswertung besteht aus einem umfassenden Analyseteil, welcher die verschiedenen Fehlerarten, die innerhalb beider Gruppen auftreten, miteinander vergleicht. Das Ziel der Analyse ist es, einen möglichen Einfluss auf das Testergebnis durch die Nutzung von Laborsmatphones aufzudecken.
Gegenstand der hier vorgestellten Arbeit ist die IT-Sicherheitsbewertung integrierter Bibliotheksmanagementsysteme am Beispiel des an der Stadtbibliothek Köln eingesetzten Systems Concerto. Es werden grundlegende Merkmale von Bibliotheksmanagementsystemen sowie IT-Sicherheit behandelt. Ausgehend von den Sicherheitsstandards des BSI wird abhängig organisatorischer Gegebenheiten ein Prozess für die Bewertung des Bibliothekssystems Concerto entworfen und die Durchführung exemplarisch skizziert. Ein Zeit-Maßnahmenplan für die Umsetzung wird definiert.
Die fortschreitende Entwicklung der Web-Technologien stellt neue Herausforderungen an die
Nutzerschulung an wissenschaftlichen Bibliotheken – nicht zuletzt in der Vermittlung von
Bildungsangeboten und neuen, multi-dimensionalen Szenarien der Nutzung. In einer Auswertung
der Fachliteratur wird gezeigt, dass sich für bestimmte, vor allem individualisierte und
ortsunabhängige Lernszenarien mit klaren und eher einfachen inhaltlichen Fragestellungen der
Einsatz von Screencasts (einer Form kurzer Lehrvideos) besonders eignet. Es werden
Nutzungsszenarien und Lerntypen beschrieben, für die der Einsatz von Screencasts lohnend
erscheint. Sollen Screencasts im Bibliothekskontext eingesetzt werden, ergeben sich aus diesen
Nutzungsszenarien methodische und funktionale Anforderungen. Auf der Basis dieser Kriterien
wird eine umfangreiche praktische Anleitung erarbeitet, mit der auch Laien qualitativ hochwertige
Screencasts für den bibliothekarischen Kontext mit geringem Ressourcenaufwand selbst erstellen
können.
Seit den 50er Jahren werden im Westdeutschen Rundfunk audiovisuelle Inhalte produziert. Zur weiteren Verwendung werden diese Inhalte im Videoarchiv aufbewahrt. Zur Speicherung dienen Magnetbänder, Filme und optische Datenträger. Seit einigen Jahren wird die Produktion auf filebasierte Arbeitsabläufe umgestellt. In diesen Abläufen sind physikalische Datenträger kontraproduktiv und die darauf enthaltenen Inhalte werden durch verschiedene Prozesse in Dateien umgewandelt. Diese Masterthesis geht der Frage nach, ob nach erfolgreicher Retrodigitalisierung die Originaldatenträger kassiert werden können. Zu diesem Zweck werden der Archivbestand und die Retrodigitalisierungsmaßnahmen vorgestellt. Das Ergebnis der Arbeit soll eine mögliche Herangehensweise an eine Kassation sein.
Das hybride Bestandskonzept für den Bereich der Sachbuchliteratur der Stadtbücherei Starnberg stützt sich auf die Analyse des bestehenden Bestandes sowie auf die notwendigen Bestandsveränderungen.
Basierend auf den Eckpunkten des Bibliothekskonzeptes, den zukünftigen Zielgruppen und den informationslogistischen Rollen ermöglichen es die ermittelten Ergebnisse der Portfolio-Analyse, die den physischen und den digitalen Sachbuchbestand berücksichtigt, Schwerpunkte zu setzen und den Bestand zu verkleinern. Damit die Informationsbedürfnisse der Leser trotz dieser Maßnahmen befriedigt werden können, werden Möglichkeiten untersucht, frei verfügbare digitale Quellen in den Bestandsaufbau miteinzubeziehen, um die größtmögliche Aktualität sicherstellen zu können. Abschließend wird dargestellt, welche Präsentationsmöglichkeiten für den hybriden Bestand bestehen.
Die momentan geltende Bibliotheksordnung der Universitätsbibliothek Kaiserslautern wurde Anfang der 1990er Jahre von der damaligen Bibliotheksleitung erarbeitet und im März 1992 veröffentlicht. Aufgrund der rasanten technischen Entwicklung in den letzten Jahren sind viele darin fixierte Inhalte heute nicht mehr gültig und damit den Nutzern gegenüber auch nicht mehr umsetzbar. Vor diesem Hintergrund besteht bereits seit Jahren der dringende Bedarf nach Aktualisierung dieser Ordnung. Anders als bislang sollten vor der Neukonzeption des Textes explizit die Ideen, Erfahrungen und Empfehlungen des vorrangig in der Benutzung tätigen Bibliothekspersonals über einen Fragebogen erfasst werden und nach Möglichkeit die Ergebnisse in die Textfassung der neuen Bibliotheksordnung einfließen. Für die konkrete Umsetzung wurden alle einzelnen Aspekte der bisher gültigen Ordnung auf Aktualität überprüft, gegebenenfalls modifiziert oder entfernt beziehungsweise durch Neuerungen ergänzt. Dies erfolgte auf Basis der aktuellen rechtlichen Lage sowie unter Berücksichtigung universitätspolitischer Aspekte. Die so erarbeitete neue Textversion einer Benutzungsordnung soll nach Durchlaufen der verschiedenen Gremien dem Senat der Technischen Universität Kaiserslautern zum Beschluss vorgelegt werden.
Googles Accelerated Mobile Pages (AMP) : Auswirkungen für Publisher am Beispiel von RTL interactive
(2017)
Das Accelerated Mobile Pages (AMP) Projekt ist Googles Maßnahme zur Optimierung der User Experience beim Surfen mit dem Smartphone. Es legt den Fokus auf die Ladezeit von mobilen Webseiten. Publisher können das eigens entwickelte AMP-Framework nutzen, um blitzschnelle Varianten ihrer Seiten bereitzustellen. Die vorliegende Masterarbeit beschäftigt sich mit der Frage, welche Auswirkungen das Framework, zusätzlich zum Faktor Ladezeit, für Publisher hat. Konkret wurden die Vor- und Nachteile des AMP-Projekts am Beispiel des Publishers RTL interactive untersucht.
Dazu wurden zum einen Interviews mit drei Experten aus dem Unternehmen geführt und zum anderen die Entwicklung verschiedener Leistungskennzahlen aus dem Bereich der Suchmaschinenoptimierung für drei unterschiedliche Portale analysiert.
eHealth Literacy : Analyse aktueller Gesundheitskompetenzmodelle im Zeitalter der Digitalisierung
(2017)
Gesundheit wird aufgrund des Fachkräftemangels sowie der Digitalisierung zu einer immer
individuelleren Angelegenheit. Kompetenzen für die Inanspruchnahme elektronischer Ressourcen
zum Selbstmanagement werden unter dem Begriff eHealth Literacy zusammengefasst.
Im Rahmen der vorliegenden Arbeit werden eHealth Angebote aus den Bereichen
Gesundheitsförderung, Prävention und Krankheitsbewältigung aus einer medienwissenschaftlichen
Perspektive heraus analysiert. Dabei wird der Frage nachgegangen, welche
Kompetenzen und welch kognitiver Aufwand zur ersten Inanspruchnahme von gesundheitsspezifischen
Informations- und Kommunikationstechnologien erforderlich sind. Für die
Analyse werden mehrere Ansätze integriert und um eine rechtliche Komponente ergänzt.
Die Ergebnisse weisen auf eine Verringerung der Anzahl erforderlicher Kompetenzen bei
gleichzeitigem Anstieg des kognitiven Aufwands hin. Angesichts der Intransparenz aufkommender
Innovationen wird eine Erweiterung der Modelle um informationstechnische
sowie ethische Aspekte angeregt.
Text Mining bietet die Möglichkeit, große Textmengen durch automatisierte Verfahren zu analysieren. Die vorliegende Arbeit beschäftigt sich mit der Anwendung und Evaluation solcher Methoden für die spezielle Textform freier Antworten aus Mitarbeiterbefragungen. Dabei werden verschiedene Techniken aus den drei Bereichen Phrasenextraktion, Sentimentanalyse und Kategorisierung dargestellt und an einer konkreten Umfrage angewendet. Die Ergebnisse werden jeweils durch Abgleich mit manuellen Ergebnissen bzw. durch manuelle Bewertungen evaluiert und die Resultate untereinander verglichen. Die genutzten Verfahren sollten ohne spezifische Trainingsdaten oder Projektinformationen anwendbar sein und sich somit auch für andere Mitarbeiterbefragungen eignen.
Die Phrasenextraktion wird auf drei verschiedene Weisen durchgeführt, wobei Part-of-Speech (POS)-Chunking, Stoppwortbegrenzung und Kookkurrenzen genutzt werden. Die Untersuchungen zeigen, dass mit dem POS-Chunking präziser die relevantesten Phrasen aus längeren Texten ermittelt werden können. Die Methode der Stoppwortbegrenzung extrahiert dagegen eine größere Vielfalt relevanter Phrasen auch aus kürzeren Texten. Manuelle Einschätzungen der Extraktionsergebnisse bewerten die Methode mit POS-Chunking am besten. Darüber hinaus wird eine automatisierte Zusammenfassung semantisch ähnlicher Phrasen durchgeführt, wodurch sich leichte Verbesserungen einiger Evaluationsergebnisse zeigten.
Für die Sentimentanalyse der freien Antworten wird eine Erweiterung eines bestehenden Verfahrens aus dem Social Media-Bereich dargestellt. Hierzu werden der Methode vier Regeln hinzugefügt, welche die Sentimentbewertung aufgrund bestimmter Syntaxformen in den freien Antworten verändern. Die Evaluation zeigt, dass drei der vier Regeln dazu beitragen, dass sich die automatisierte Bewertung manuellen Bewertungen annähert.
Die Kategorisierung wird durch die beiden Topic Modeling-Methoden Latent Dirichlet Allocation (LDA) und Non-negative Matrix Factorization (NMF) durchgeführt. NMF erreichte bei dem Abgleich mit einer manuellen Kategorisierung höhere Übereinstimmungen und zeichnete sich auch durch eine bessere Abgrenzung der Thematiken sowie eine bessere Interpretierbarkeit aus.
Die Text Mining-Methoden und deren Evaluationen werden für diese Arbeit in der Programmiersprache Python umgesetzt. Außerdem werden die Text Mining-Resultate in die Datenvisualisierungssoftware Tableau eingebunden.
In der vorliegenden Arbeit wird ein Einblick in Eignung und Unterschiede verschiedener Text Mining-Methoden in Bezug auf freie Antworten in Mitarbeiterbefragungen gegeben. Darüber hinaus wird dargestellt, dass auch spezifische Anpassungen an diese Textform möglich sind. Zusätzlich werden diverse Optimierungsansätze aufgezeigt, die den noch großen Weiterentwicklungsbedarf in diesem Bereich verdeutlichen.
Das Spannungsfeld von wachsenden Anforderungen bei gleichbleibenden oder sinkenden personellen und finanziellen Ressourcen sowie die Anpassung an die wandelnden strategischen Veränderungen des eigenen Unternehmens, konfrontie-ren Unternehmensbibliotheken mit großen Herausforderungen.
Das Konzept Lean Management bietet einen ursachenorientierten Lösungsansatz, der alle Bereiche des Arbeitsumfeldes einbindet. Lean Management umfasst eine Reihe von Verfahrensweisen, deren Ursprung in der Produktion (Automobilin-dustrie) liegt, und stellt die konsequente Ausrichtung auf den Kunden in den Mit-telpunkt der operativen Leistungsfähigkeit.
Diese Arbeit stellt die historische Entwicklung des Lean Management dar und be-handelt die Übertragung der Prinzipien auf Bereiche außerhalb der industriellen Produktion mit einem besonderen Fokus auf den Bereich Bibliothek und Informa-tion. Sie zeigt die Umsetzung von Lean Management in einer Unternehmensbiblio-thek exemplarisch anhand der Pharmabibliothek der Grünenthal Gruppe auf.
Lean Management erzielt eine nachhaltige Veränderung von Arbeitsprozessen nicht durch einzelne Verbesserungsprojekte, sondern verfolgt einen ganzheitli-chen Ansatz, der verschiedene Gestaltungsprinzipien einer Bibliothek gleichzeitig adressiert.
Bereits seit einem Jahrzehnt ersetzen bzw. ergänzen Discovery-Systeme im Zuge
stärkerer Nutzer- und Dienstleistungsorientierung herkömmliche Online-Kataloge vor
allem in Wissenschaftlichen Bibliotheken. Dem verwunderlichen Umstand, dass trotz
ähnlicher Entwicklungslinien in Öffentlichen und Unternehmens-Bibliotheken
Discovery-Systeme dort noch kaum verbreitet sind, begegnet diese Arbeit mit einer
vergleichenden Gegenüberstellung der Bedarfs- und Angebotssituation für diese beiden
Bibliothekstypen. Somit soll nicht nur Entscheidungsträgern in Unternehmens-
Bibliotheken sowie in Öffentlichen Bibliotheken eine erste Orientierung bei der
Entwicklung und Erstellung eigener Anforderungsprofile angeboten werden, sondern
auch Anbieter von Discovery-Lösungen finden in der vorliegenden Arbeit Anregungen
zur Anpassung ihrer Angebotspalette für einen bisher nur ungenügend berücksichtigten
Marktbereich.
Information literacy in secondary schools in England : challenges to implementing a teaching tool
(2017)
The skills required to become an information literate person should be taught and learned in schools from an early age on. The focus in schools lies in raising student attainment and being information literate has a positive impact on the attainment. However, the teaching of IL is often overlooked in English schools. This thesis introduces the English educational system as well as the National Curriculum and analyses the situation in English secondary schools with focus on the challenges that school librarians face when trying to provide learning opportunities to gain IL skills. Several different IL frameworks, models and standards are evaluated for their suitability as a practical teaching tool for school librarians and teachers. It is concluded that there is a need for an easy-to-use scheme that can be adopted in any secondary school in England and other countries with a similar school system. Building on the analysis of the literature a new Scheme for Teaching IL in English Secondary Schools (STILESS) as well as an exemplary lesson plan will be developed. STILESS and the lesson plan are not only a practical teaching tool but also a useful instrument to promote IL in general across schools with leadership, teachers and students.
Open Access beschreibt das Prinzip des ungehinderten, unentgeltlichen und freien Zugangs zu
wissenschaftlichen Informationen. Mit der Berliner Erklärung über den offenen Zugang zu
wissenschaftlichen Informationen wurde 2003 die Open-Access-Bewegung in Deutschland
initiiert. Seither unterzeichnen zahlreiche Universitäten und Forschungseinrichtungen die
Erklärung. Wie kann Open Access in einer wissenschaftlichen Institution etabliert werden?
Diese Masterarbeit widmet sich dem Thema exemplarisch an der Bundesanstalt für
Gewässerkunde (BfG). Für die BfG ist die Förderung von Open Access als
Ressortforschungseinrichtung des Bundes und in ihrer Funktion als nationales Daten- und
Berichtszentrum für Gewässer notwendig. Besonders die Gewässerkundliche Zentralbibliothek
hat als Behördenbibliothek die Aufgabe serviceorientierte Rahmenbedingungen für das Open-
Access-Publizieren aufzubauen und damit gleichzeitig die Publikationen der BfG frei
zugänglich anzubieten. Die vorliegende Arbeit hat daher ein empfehlendes Handlungskonzept
zum Umgang mit Open Access formuliert. Dazu werden die Open-Access-Bemühungen
anderer Ressortforschungseinrichtungen vergleichend analysiert und Best-Practice-Beispiele
für eine Strategie der BfG identifiziert. Auf der Grundlage dieser Analyse und den
Rahmenbedingungen der BfG wird ein Open-Access-Konzept vorgeschlagen und die
Möglichkeiten zur Förderungen des goldenen und des grünen Weges reflektiert. Insgesamt wird
besonders eine Informationsoffensive zu Open Access empfohlen, wozu mögliche
Dienstleistungen und Aufgaben für die Bibliothek zusammengestellt werden.
Die vorliegende Masterarbeit analysiert die Einflüsse der Digitalisierung, welche in Form von Big Data auf die Marktforschung einwirken. Anhand einer sowohl theoretischen als auch empirischen Herangehensweise durch Experteninterviews wird untersucht, welche Veränderungen Big Data in der Branche hervorruft. Unter Zuhilfenahme von fünf Thesen wird ermittelt, was neue Datenquellen und Analy-semöglichkeiten für die klassischen Marktforschungsmethoden bedeuten und wie sich die zunehmende Automatisierung durch Software-Lösungen und die Inter-netgiganten auf die Arbeitsfelder der Marktforschung auswirken. Weiterhin wird betrachtet, welche Rolle die aktuelle Gesetzes- und Standesrechtslage bei der Im-plementierung von Big Data spielt und in wie weit eine Konkurrenzsituation durch das Aufkommen einer neuen Berufsgruppe, der Data Scientists, und Markt-forschern besteht. Zuletzt wird überprüft, welche Qualitätssicherungsmaßnahmen unternommen werden müssen, um Big Data auch für die Marktforschung nutzbar zu machen. Durch den Einsatz von Experteninterviews kann untersucht werden, in wie weit sich die theoretischen Überlegungen auch in der Praxis umsetzen lassen und wiederfinden.
Wie kann die Zusammenarbeit von Zentralbibliothek und dezentralen Campusbibliotheken an der Universität zu Köln optimiert werden? Dieser Frage geht die vorliegende Arbeit nach. Sie bewegt sich damit im Themenkomplex der Organisationsentwicklung von Hochschulbibliothekssystemen mit der hauptsächlichen Ausrichtung auf die Organisationsform der funktionalen Einschichtigkeit.
Im theoretischen Teil werden zunächst die Begrifflichkeiten Ein- und Zweischichtigkeit definiert und deren Beziehung zueinander im historischen Kontext beleuchtet. Neben der definitorischen Abgrenzung werden dann anhand von drei ausgewählten Beispielen Entwicklungen und Reorganisationsprozesse im Umbau von zweischichtigen Bibliothekssystemen analysiert und gegenübergestellt (Marburg, Heidelberg, Frankfurt). Dann wird das Bibliothekssystem der Universität zu Köln näher betrachtet. Dort ist die Dezentralität noch stark ausgeprägt: es existieren ca. 145 dezentrale Bibliotheken, sie verfügen zusammengenommen über ungefähr die Hälfte des Print-Medienbestandes im Gesamtsystem. Eine Strategie für das gesamte universitäre Bibliothekssystem zu entwickeln ist insofern schwierig, da hier unabhängige Partner in ihren Teilbereichen selbständig agieren. Mit der Gründung von gemeinsamen Fachbibliotheken wurde und wird seit längerer Zeit versucht, die unabhängigen Partner durch den Abschluss einer vertraglichen Vereinbarung zu mehr Koordination und Kooperation zu bewegen. Die Etablierung der 'Marke' gemeinsame Fachbibliothek und mit ihr die Entwicklung erkennbarer Standards im Hinblick auf Beschaffung, Katalogisierung und Zugänglichkeit ist jedoch nach heutigem Sachstand nicht umfassend geglückt. Deshalb wird im praktischen Teil der Arbeit untersucht, inwiefern es möglich ist, durch eine bestimmte Form der Kooperation – das Joint Venture – in einzelnen Bereichen systemische Verbesserungen zu erzielen, um die Forderungen der funktionalen Einschichtigkeit besser erfüllen zu können. Es werden dazu explorative Leitfadengespräche mit Experten aus zwölf Bibliotheken / Abteilungen an der Universität zu Köln geführt.
Im Rahmen der durchgeführten Evaluation wurden nur zwei bibliothekarische Arbeitsbereiche identifiziert, für die es sich lohnen könnte, universitätsweit breit angelegte Kooperationsstrategien in Form von Joint Ventures zu entwickeln. Es handelt sich hierbei um die beiden Kooperationen Zeitschriftenerwerbung und Katalog. Daran zeigt sich sehr deutlich, dass die digitale Wende zentrale Versorgungsstrukturen begünstigt. Generell ist es notwendig, die Aufgabenbereiche in den zentralen und den dezentralen Bibliothekseinheiten strategisch zu planen, damit die optimale Literaturversorgung am Campus weiterhin gewährleistet werden kann.
Aufbau einer deutschsprachigen Community für das Bibliotheksmanagementsystem FOLIO : ein Konzept
(2017)
Seit dem Jahr 2016 evaluieren das Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) und die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG/GBV) in einem gemeinsamen Projekt das Open-Source-System FOLIO. Das Ziel ist, qualifizierte Aussagen zur funktionalen und technischen Eignung von FOLIO für den deutschsprachigen Raum zu treffen. Die Kommunikation sowie Wissensvermittlung während der Entwicklung und der Tests von FOLIO erfolgt, wie in Open-Source-Systemen üblich, primär über die Community des Systems. Allerdings ist die FOLIO-Community aus den USA für die deutschen Interessen meist nicht der adäquate Ansprechpartner, da sich die Bedürfnisse der deutschen Bibliotheken von denen in den USA unterscheiden und nur einen kleinen Teil der großen Gemeinschaft betreffen. Die Entwicklung einer FOLIO-Community für den deutschsprachigen Raum bietet Bibliotheken, die FOLIO zukünftig einsetzen werden, einen Ort, um ihre Bedürfnisse, Anliegen und Probleme zu diskutieren. Aus diesem Grund stellt die Arbeit in und mit einer eigens für Deutschland eingerichteten FOLIO-Community einen wesentlichen Aspekt im FOLIO-Entwicklungsprojekt von hbz und VZG des Projekts dar.
Ziel der vorliegenden Arbeit ist, Rahmenbedingungen sowie Faktoren für einen erfolg-reichen Aufbau und einer dauerhaften Etablierung der deutschsprachigen FOLIO-Community zu identifizieren und zu eruieren, welche Tools benötigt werden, um die Community für die Nutzer attraktiv und bedienungsfreundlich zu gestalten. Hierzu werden bereits vorhandene Communitys im Bereich des Bibliothekswesens, ausgehend von den Handlungsempfehlungen von Amy Jo Kim, Sandra Schaffert sowie Diana Wieden-Bischof, verglichen. Als Referenzmodelle dienen die Communitys des Open Source-Systems Koha, die Kuali OLE-Community sowie die FOLIO-Community aus den USA. Durch den Vergleich werden die Unterschiede sowie die Gemeinsamkeiten der einzelnen Communitys herausgearbeitet, um die gesammelten Erkenntnisse in die Konzeptentwicklung für eine deutschsprachige FOLIO-Community einfließen zu lassen.
Die Masterarbeit „Virtual Reality (VR) und Augmented Reality (AR) als
kommunikationspolitisches Instrument des Erlebnismarketings am Beispiel des
Markts von Softdrinks“ von Chorong Hwang erscheint Dezember 2017 im Rahmen
des Studiums zur Markt- und Medienforschung an der Technische Hochschule Köln
und umfasst 80 Seiten.
Die neuartigen fortschrittlichen Technologien, Virtual Reality und Augmented
Reality, können als kommunikationspolitische Instrumente für Zwecke der
Unternehmens- bzw. Markenkommunikation zwischen Unternehmen und
Konsumenten bzw. potenziellen Konsumenten in der heutigen individualisierten und
erlebnisorientierten Gesellschaft sowie im verstärkten Wettbewerbsumfeld effektiv
verwendet werden.