Refine
Year of publication
- 2020 (25) (remove)
Document Type
- Bachelor Thesis (15)
- Master's Thesis (10)
Language
- German (25)
Has Fulltext
- yes (25) (remove)
Keywords
- Informationskompetenz (3)
- Information Retrieval (2)
- Altbestand (1)
- Altersmanagement (1)
- Benutzer (1)
- Bibliotheksbestand (1)
- Big Data (1)
- Bildungspartnerschaft (1)
- Blockchain (1)
- Blog (1)
Im Rahmen einer theoretischen Bachelorarbeit wird die Frage erörtert, inwiefern die Gruppenfunktion des sozialen Netzwerks Facebooks zum Erreichen verschiedener Unternehmensziele beitragen und sich in den Online-Marketingmix von Unternehmen einfügen kann. Im Mittelpunkt der Arbeit steht die Umsetzung von Online-Marketing-Strategien mit dem administrativen Betrieb von Facebook-Gruppen. Anhand einer beispielhaften Gruppe werden Unternehmensziele und -strategien skizziert sowie anhand von Admin-Tools, -Insights und beispielhaften Gruppen-Postings dargestellt. Auch mögliche Risiken und Nachteile werden aufgezeigt sowie Vergleiche zu weiteren Facebook-Funktionen und denen anderer Netzwerke gezogen.
Die vorliegende Arbeit untersucht mit Hilfe einer multimodalen Herangehensweise das Framing journalistischer Medien in Bezug auf Rechtsextremismus zu untersuchen. In bisherigen Forschungen erfolgte die Identifizierung von Medien-Frames größtenteils entweder auf Grundlage textlicher oder visueller Daten. Eine multimodale Perspektive die mehrere Modi, wie Bild und Text, gemeinsam untersucht ist kaum vertreten. Daher wird in der vorliegenden Arbeit folgende Forschungsfrage untersucht: „Welche (Media-)Frames lassen sich in den Postings journalistischer Medien auf Facebook & Twitter im Rahmen der Berichterstattung über rechtsextreme Straftaten identifizieren?“ Zur Beantwortung wurde eine induktiv-qualitative Inhaltsanalyse durchgeführt, die themenspezifische multimodale Postings einer Woche der ausgewählten Medien Spiegel, Welt und Zeit Online analysiert. Als Fallbeispiel diente der durch den Verfassungsschutz als rechtsextremistisch eingestufte Anschlag in Hanau am 19.02.2020. 282 Facebook- und Twitter-Postings erfüllten diese Kriterien und behandelten thematisch den Anschlag in Hanau. Identifiziert wurden acht verschiedene themenspezifische Frames bzw. Frame-Kategorien, unter denen weitere Frames zusammengefasst werden konnten. Unter anderem beinhaltet dies die Rahmung als „Terror“ sowie der „(politischen) Verurteilung“. Weitere Frames stellen den Anschlag entweder im Lichte eines „Täterfokus“ dar oder mit Fokus auf die „Betroffenen“. Darüber hinaus werden „Auswirkungen des Anschlags“ thematisiert, so zum Beispiel eine Debatte des „Waffenrechts“. Die Zuweisung einer „Mitverantwortung“ bildet die nächste Frame-Kategorie. Zuletzt wird der Anschlag in Hanau noch im Rahmen vergangener „rechter Anschlagshistorie“ dargestellt, sowie die Frage des „Medialen Umgangs“ mit rechtsextremen Taten gestellt. Es wurden dabei Unterschiede festgestellt, je nachdem in welchem sozialen Netzwerk der Beitrag gepostet wurde und von welchem Medium. Der Zeitpunkt spielte eine aber eher untergeordnete Rolle. Die Analyse liefert wichtige Erkenntnisse für die journalistische Praxis. Die Ergebnisse haben ebenfalls für den Bereich der Medienkritik eine hohe Relevanz, sowohl durch den Presserat als auch die breite Öffentlichkeit. Aufgrund der großen Verantwortung, die den Medien bei sensiblen Themen wie rechtsextremistischen Anschlägen zukommt, ist eine kontinuierliche Reflexion der Berichterstattung sinnvoll und von enormer Bedeutung.
Die Reproduzierbarkeit von Ergebnissen ist das Fundament der Wissenschaft. Seit einigen Jahren bröckelt dieses Fundament jedoch und viele Forschende sind sich einig, dass es eine Reproduzierbarkeitskrise gibt. Grund dafür sind unter anderem die oft nicht zur Verfügung stehenden Daten aus den ursprünglichen Untersuchungen und mangelhafte Dokumentation. Seit einiger Zeit wird der Reproduzierbarkeit daher ein besonderes Augenmerk geschenkt. In der vorliegenden Arbeit wird die Reproduzierbarkeit von webbasiertem Pseudo-Relevanz-Feedback untersucht. Grossman und Cormack versuchten 2018 Relevanzurteile für Dokumente aus Testkollektionen mittels logistischer Regression herzuleiten. Ihre Trainingsdaten für ihr Modell bestanden aus Daten, die sie mittels Pseudo-Relevanz-Feedback aus dem Internet gewonnen hatten. Da das Internet einem permanenten Wandel unterlegen ist, ist absehbar, dass sich auf diese Weise gewonnene Trainingsdaten bei einer Reproduktion verändern und potentiell zu anderen Ergebnissen führen. 2019 haben Breuer und Schaer einen Reproduktionsversuch unternommen und dabei festgestellt, dass eine Reproduktion der Originalergebnisse trotz veränderter Datengrundlage möglich ist, sich aber Differenzen in den Resultaten aufgrund diverser Parameter wie verwendeter Suchmaschine und Geolocation ergeben. Im Rahmen dieser Bachelorarbeit wurde eine weitere Reproduktion unternommen, um zu prüfen, ob sich das Verfahren und die Ergebnisse von Breuer und Schaer reproduzieren lassen. In einer darauffolgenden Modifikation des Ansatzes wurden über zwei Wochen weitere Trainingsdaten erhoben und durch Ausschluss oder Einbezug von Begriffen rund um die Corona-Pandemie dabei der Einfluss von aktueller Berichterstattung auf die erhobenen Trainingsdaten und damit die Retrievalergebnisse untersucht. Ergebnisse wurden mittels TREC-EVAL evaluiert, durch einen t-Test wurden die Ergebnisse auf signifikante Unterschiede überprüft und über die Berechnung des Root Means Square Errors und der Effect Ratio die Qualität der Reproduktion untersucht. Die zugrunde liegenden Trainingsdaten wurden dann mithilfe des Rank Biased Overlap auf Überschneidungen überprüft. Der errechnete RBO wurde anschließend mit den Differenzen zwischen den Ergebnissen in Verhältnis gesetzt und mithilfe der Pearson-Korrelation auf signifikante Zusammenhänge getestet. Die Untersuchung ergab, dass eine Reproduktion zu großen Teilen erfolgreich war, die Ergebnisse von Breuer und Schaer jedoch nicht exakt reproduziert werden konnten. Die intensive Berichterstattung um die Corona-Pandemie hatte dabei keinen signifikanten Einfluss auf die Retrievalergebnisse. Mit zunehmender Zeit sank der RBO zwischen den erhobenen Daten, es konnte jedoch keine signifikante Korrelation zwischen dem RBO und den Differenzen in den Einzelergebnissen festgestellt werden.
Die German Library Indexing Collection (GeLIC) soll dazu dienen, die Retrievalleistung von maschinellen und intellektuellen Schlagwörtern der Deutschen Nationalbibliothek (DNB) zu vergleichen. Das Verfahren zur Erzeugung des Korpus der Kollektion wurde im Verlauf dieser Arbeit automatisiert. Dafür musste zunächst der bestehende Korpus analysiert werden, um Ziele für den zu entwickelnden Prozess formulieren zu können. Darauf folgt ein State of the Art zu bibliothekarischen und universellen ETL-Lösungen. Es wurde entschieden, dass das automatische Verfahren mithilfe von Python realisiert werden sollte. Nachdem festgelegt wurde welche Daten benötigt werden, wurden die öffentlich verfügbaren Formate der DNB analysiert. Dabei wurde deutlich, dass in beiden Formaten maschinelle Schlagwörter nicht in jedem Fall von intellektuellen unterschieden werden können. Anschließend wurde das Package gelic_mt entwickelt und darauf aufbauend eine Pipeline für GeLIC. Bei der Prüfung des damit erzeugbaren Korpus, wurde erneut ersichtlich, dass die derzeitig öffentlich verfügbaren Daten keinen Korpus erlauben, der für die gewünschten Retrievaltests geeignet ist.
Diese Arbeit beschäftigt sich mit Rekonstruktionen historischer Buchsammlungen und der Frage, ob es möglich ist hierfür standardisierte Verfahren zu entwickeln, da dies im wissenschaftlichen Diskurs bisher weitestgehend unbehandelt ist.
Aus bereits stattgefundenen und aktuell noch laufenden Rekonstruktionsprojekten wurden Gemeinsamkeiten und Erkenntnisse erarbeitet, die für möglichst viele dekonstruierte historische Buchsammlung gelten. Zwar konnten einige allgemeingültige Aspekte gefunden werden, dennoch hat sich gezeigt, dass Rekonstruktionen historischer Buchsammlungen aufgrund vieler verschiedener Faktoren sehr individuelle Vorgehensweisen erfordern und daher die erarbeiteten Erkenntnisse mehr als eine Orientierungshilfe dienen können, als dass sie als Leitfaden fungieren könnten. Angewendet auf das Rekonstruktionsprojekt der ehemaligen Kölner Jesuitenbibliothek konnten so zum Beispiel Aussagen getroffen werden, die Aufschluss über den weiteren Verlauf sowie über das Gelingen des Projektes geben.
Mit einem Blick in die Zukunft ist eine weitere Auseinandersetzung mit Sammlungen und ihrer Erschließung sinnvoll, da das wissenschaftliche Interesse an diesen in den letzten Jahren zugenommen hat. Durch besseren Austausch könnten Planung und Arbeitsprozesse von Sammlungsrekonstruktionen zudem vereinfacht werden.
In Hinblick auf die mögliche Nachnutzung sammlungsspezifischer Daten wird auch eine einheitliche Sammlungsbeschreibung in Zukunft eine wichtigere Rolle spielen.
In der vorliegenden Arbeit wird ein modular aufgebautes, cross-mediales Konzept zur Förderung der textuellen Kohärenz und Lesemotivation von Grundschüler*innen der 4. Klasse innerhalb einer Bildungspartnerschaft in öffentlichen Bibliotheken entwickelt. Sie fußt auf wissenschaftlichen Erkenntnissen zur Lesekompetenz, der Spezifik digitalen Lesens sowie deren Förderung und der Darstellung des schulischen Kontexts, der Initiative Bildungspartner NRW und bibliothekarischer Leseförderung. Die Veranstaltungsreihe besteht aus 3 Formaten, in denen diese Erkenntnisse aufgegriffen und auf die entwickelten Inhalte angewendet werden. Sie werden systematisch anhand der Aspekte der Förderung der textuellen Kohärenz und der Lesemotivation aufeinander aufgebaut und miteinander verknüpft. Dem cross-medialen Aspekt wird durch das Verwenden digitaler Medien und ein Format zur Förderung des digitalen Lesens Rechnung getragen. Die Arbeit zeigt auf, dass sich die Förderung der textuellen Kohärenzbildung mit der Förderung der Lesemotivation sinnvoll verbinden lässt und diese Aspekte nicht isoliert voneinander betrachtet und gefördert werden müssen.
Seit 2018 sind die Mobile Payment-Anbieter Apple Pay und Google Pay auf dem deutschen Markt vertreten. Innerhalb der letzten Jahre haben sich jedoch auch weitere Anbieter auf den deutschen Markt für Mobile Payment begeben. Die Entwicklung der Mobile Payment Nutzung in Deutschland wurde bereits in einigen Statistiken und Befragungen behandelt, jedoch fehlt bislang eine Übersicht der aktuellen Anbieter in Deutschland sowie eine vergleichende Analyse ihrer Geschäftsmodelle, um die Unterschiede der Angebote zu verstehen und zukünftige Erfolgschancen feststellen zu können. Das Ziel dieser Arbeit ist demnach, die Geschäftsmodelle ausgewählter Anbieter auf Stärken und Schwächen und unter Berücksichtigung auftretender Netzwerkeffekte zu untersuchen, um daraus resultierend einen Ausblick über ihren Erfolg am deutschen Markt zu geben. Der Leser soll somit nicht nur einen Überblick über den Mobile Payment Markt in Deutschland und die wichtigsten Anbieter bekommen, sondern ihm soll zudem vermittelt werden, was die aktuellen Anbieter voneinander unterscheidet und welche Anbieter in Zukunft erfolgreich sein werden. Dazu werden folgende Forschungsfragen gestellt: Welche Stärken und Schwächen lassen sich durch eine vergleichende Geschäftsmodellanalyse der Mobile Payment Anbieter unter Berücksichtigung auftretender Netzwerkeffekte identifizieren?
Welcher der zu untersuchenden Anbieter besitzt resultierend aus diesen Ergebnissen die größten Erfolgschancen? Im Hauptteil erfolgt eine Geschäftsmodellanalyse basierend auf dem eigenständig entwickelten iBusinessmodel, sowie eine Gegenüberstellung der Geschäftsmodelle, durch welche die Stärken und Schwächen der Anbieter identifiziert und die Erfolgschancen beurteilt werden. Die Arbeit kommt zu dem Ergebnis, dass Apple Pay anhand der identifizierten Stärken die größten Erfolgschancen hat, gefolgt von Payback Pay, dem Mobilen Bezahlen der Sparkasse und der EDEKA-App. Da jedoch fast alle Angebote auf eine spezielle Kundengruppe beschränkt sind, werden in Zukunft weiterhin mehrere Anbieter existieren, da sich eine Marktführerschaft nur schwer realisieren lässt.
Die Ergebnisse lassen jedoch darauf schließen, dass Hardwarehersteller wie Apple sowie unabhängige Anbieter wie Payback, welche eine hohe Reichweite und viele Mehrwerte bieten, den deutschen Markt für Mobile Payment in Zukunft vermutlich mit großen Marktanteilen dominieren werden.
Die Nutzung von Suchmaschinen ist im Alltag moderner Gesellschaften fest implementiert und gilt heute als eines der Fundamente digitaler Informationsbeschaffung.
Diverse Studien schreiben digitalen Informationsanbietern einen soziotechnologischen Charakter zu, welcher potenziell dazu in der Lage ist durch ein Konglomerat feinjustierter Algorithmen Gesellschaften zu beeinflussen und eine Steuergröße in demokratischen Prozessen abzubilden. Die vorliegende Bachelor-Thesis belegt durch die Analyse diverser Nationen mithilfe der Datamining-Umgebung RapidMiner die ungleiche Darstellung von Ethnien in Suchvervollständigungen durch Textminingverfahren wie TF-IDF-Gewichtung, Erhebung von Termhäufigkeiten und der Durchführung einer Sentimentanalyse.
Diese Arbeit beschäftigt sich mit der Frage, ob sich Personalisierung auf die Suchvorschläge bei Google auswirkt.
Zunächst wird beschrieben, inwiefern dies im Kontext gesellschaftlichen Diskurses relevant ist und was zur Entstehung von Filterblasen im Allgemeinen führen kann. Auch Google als Unternehmen und dessen Geschäftsmodell wird in dieser Arbeit betrachtet.
Zur Sammlung der Daten wurde eigenständig ein Programm entwickelt, welches sich automatisch in Google Accounts einloggt, Suchanfragen absendet und anschließend die Suchvorschläge speichert.
Mithilfe der Berechnung des Jaccard-Index und einer intellektuellen Auswertung der Daten konnte so festgestellt werden, ob es einen Einfluss der Personalisierung auf die Suchvorschläge gibt.
Es konnten zwar geringe Abweichungen zwischen einzelnen Tagen festgestellt werden, generell schlägt sich der Einfluss der Personalisierung allerdings nicht in den Ergebnissen dieser Arbeit nieder.
Die vorliegende Bachelorarbeit befasst sich mit der Neukundengewinnung in der Kfz-Versicherungsbranche durch Big Data. Dafür werden das Potenzial von Predicitve Analytics und die geeigneten Szenarien für die Neukundengewinnung analysiert. Es wird veranschaulicht, wie sich das Kundenverhalten und die Kundenbedürfnisse durch die digitalen Möglichkeiten in der Versicherungsbranche verändert haben. Online kann man sich in kurzer Zeit für die preiswerteste Kfz-Versicherung entscheiden, was einen Preiskampf unter den Kfz-Versicherern verursacht. Das Ziel der Arbeit ist es zu veranschaulichen wie die Versicherer mithilfe von Datenanalysen das Verhalten und die Bedürfnisse der Kunden verstehen. Die Versicherer optimieren mit den gewonnen Kenntnissen Maßnahmen, Prozesse und Strategien für die Neukundengewinnung. Es wird erläutert, warum die Voraussetzung für das Ausschöpfen des Big Data Potenzials, neben der Einhaltung des Datenschutzes, eine klare Datenstrategie, eine angemessene Datenqualität und das nötige Know-how sind.