Refine
Document Type
- Bachelor Thesis (24)
- Master's Thesis (3)
Keywords
- Suchmaschine (3)
- WordPress (3)
- Daten (2)
- Nachhaltigkeit (2)
- Power BI (2)
- Suchmaschinenoptimierung (2)
- Visualisierung (2)
- Website (2)
- Alltag (1)
- Alternative für Deutschland (1)
Die vorliegende Bachelorarbeit hat die Entwicklung eines Veranstaltungskonzepts zum Ziel, welches zur Vermittlung von Suchmaschinenkompetenz an Nutzer Öffentlicher Bibliotheken verwendet werden kann. Ausgangsbasis dafür ist die Annahme, dass Suchmaschinenkompetenz als Teil von Informationskompetenz zu sehen ist und somit ins Aufgabenspektrum Öffentlicher Bibliotheken fällt. Im Verlauf der Arbeit wird Klingenbergs Referenzrahmen Informationskompetenz vorgestellt und Suchmaschinenkompetenz in selbigem verortet. Neben Theorie zur Schulungskonzeption werden suchmaschinentechnische Grundlagen erörtert, die zur Vermittlung von Suchmaschinenkompetenz vonnöten sind. Das Schulungsgrobkonzept umfasst drei Schulungen auf dem Referenzrahmen Informationskompetenz entnommenen Niveaustufen: A, B2 und C1, also Viertklässler, Zehntklässler und Erwachsene. Das Grobkonzept ist universell gestaltet und kann auch von kleinen Öffentlichen Bibliotheken mit geringem Veranstaltungsetat umgesetzt werden.
Analysing the systematics of search engine autocompletion functions by means of data mining methods
(2017)
In the internet era, the information that can be found about politicians online can influence
events such as the results of elections. Research has shown that biased search rankings can
shift the voting preferences of undecided voters. This shows the importance of studying
online search behaviour, especially in the pre-elections phase, when search results can
have a particular influence on the future political scene of a country.
This master thesis aimed to study the behaviour of online search engines in a period before
the German federal election in 2017. The aim was to ascertain if there is any pattern to be
found in the auto-suggestions for searches related to politicians.
In order to gather data for this experiment, a crawler browsed search engine web pages,
input a name and a surname of a politician, and saved that together with all autosuggestions
from the search engine. The autosuggestions were prepared for the analysis and
divided into semantic groups with the help of clustering algorithms.
Different statistical methods, such as correlation analysis, regression analysis, and clustering
were used to identify patterns in the data. The research showed that there are
no particularly strong patterns in the autosuggestions for searches related to politician’s
names. Only moderate dependence was found between gender and personal topics, and
showed that a higher amount of personal information autosuggestions correspond more
to female politicians.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Konzeptionierung und Umsetzung des Relaunchs der Website Cucuron.de. Hierbei handelt es sich um einen privaten Webauftritt, auf dem der Betreiber sein Ferienhaus im Ort Cucuron in Südfrankreich vorstellt. Ziel der Website ist es, potentielle Gäste über das Angebot zu informieren. Der Relaunch umfasst die technische Durchführung eines selbsterstellten Layouts nach aktuellen Webstandards, wie HTML5 und CSS3, samt responsiver Gestaltung zur optimalen Darstellung der Website auf sämtlichen Endgeräten. Dazu zählen Smartphones, Tablets und Desktop-Computerbildschirme. Schließlich beschreibt die Bachelorarbeit die Implementierung des erstellten Layouts in das Content Management WordPress. Um Nutzen und Ziel von Cucuron.de entsprechend zu erfüllen, geht der praktischen Umsetzung zunächst eine Zielgruppen- sowie Konkurrenzanalyse voran, womit die Anforderungen des Relaunchs definiert werden. Zudem setzt sich diese Bachelorarbeit mit den Möglichkeiten der Integration von Social Media-Kanälen auseinander, womit eine Bindung zur Zielgruppe sowie eine Reichweitenvergrößerung erreicht werden kann.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Konzeption und medienpraktischen Umsetzung einer Website für einen fiktiven Kunden mit einer fiktiven Dienstleistung. Unter www.marcel-greve-ba.de kann die Website eingesehen werden. Der Fokus des Projekts liegt auf einer Analyse der Eigenschaften der Zielgruppe des Kunden. Aus diesen Eigenschaften werden die inhaltlichen und optischen Anforderungen an die Website und die Social-Media-Profile abgeleitet. Anschließend werden Entwürfe zur Website-Struktur und des späteren Designs angefertigt. Die technische Umsetzung erfolgt mit dem Content Management System (CMS) Wordpress. Im Zuge dessen wird erläutert, welche Plugins verwendet und welche Änderungen an der Formatierung vorgenommen wurden. Zusätzlich wird eine Social-Media-Strategie ausgearbeitet.
Text Mining bietet die Möglichkeit, große Textmengen durch automatisierte Verfahren zu analysieren. Die vorliegende Arbeit beschäftigt sich mit der Anwendung und Evaluation solcher Methoden für die spezielle Textform freier Antworten aus Mitarbeiterbefragungen. Dabei werden verschiedene Techniken aus den drei Bereichen Phrasenextraktion, Sentimentanalyse und Kategorisierung dargestellt und an einer konkreten Umfrage angewendet. Die Ergebnisse werden jeweils durch Abgleich mit manuellen Ergebnissen bzw. durch manuelle Bewertungen evaluiert und die Resultate untereinander verglichen. Die genutzten Verfahren sollten ohne spezifische Trainingsdaten oder Projektinformationen anwendbar sein und sich somit auch für andere Mitarbeiterbefragungen eignen.
Die Phrasenextraktion wird auf drei verschiedene Weisen durchgeführt, wobei Part-of-Speech (POS)-Chunking, Stoppwortbegrenzung und Kookkurrenzen genutzt werden. Die Untersuchungen zeigen, dass mit dem POS-Chunking präziser die relevantesten Phrasen aus längeren Texten ermittelt werden können. Die Methode der Stoppwortbegrenzung extrahiert dagegen eine größere Vielfalt relevanter Phrasen auch aus kürzeren Texten. Manuelle Einschätzungen der Extraktionsergebnisse bewerten die Methode mit POS-Chunking am besten. Darüber hinaus wird eine automatisierte Zusammenfassung semantisch ähnlicher Phrasen durchgeführt, wodurch sich leichte Verbesserungen einiger Evaluationsergebnisse zeigten.
Für die Sentimentanalyse der freien Antworten wird eine Erweiterung eines bestehenden Verfahrens aus dem Social Media-Bereich dargestellt. Hierzu werden der Methode vier Regeln hinzugefügt, welche die Sentimentbewertung aufgrund bestimmter Syntaxformen in den freien Antworten verändern. Die Evaluation zeigt, dass drei der vier Regeln dazu beitragen, dass sich die automatisierte Bewertung manuellen Bewertungen annähert.
Die Kategorisierung wird durch die beiden Topic Modeling-Methoden Latent Dirichlet Allocation (LDA) und Non-negative Matrix Factorization (NMF) durchgeführt. NMF erreichte bei dem Abgleich mit einer manuellen Kategorisierung höhere Übereinstimmungen und zeichnete sich auch durch eine bessere Abgrenzung der Thematiken sowie eine bessere Interpretierbarkeit aus.
Die Text Mining-Methoden und deren Evaluationen werden für diese Arbeit in der Programmiersprache Python umgesetzt. Außerdem werden die Text Mining-Resultate in die Datenvisualisierungssoftware Tableau eingebunden.
In der vorliegenden Arbeit wird ein Einblick in Eignung und Unterschiede verschiedener Text Mining-Methoden in Bezug auf freie Antworten in Mitarbeiterbefragungen gegeben. Darüber hinaus wird dargestellt, dass auch spezifische Anpassungen an diese Textform möglich sind. Zusätzlich werden diverse Optimierungsansätze aufgezeigt, die den noch großen Weiterentwicklungsbedarf in diesem Bereich verdeutlichen.
Die schnelle Verbreitung digitaler Musik im Internet stellt Benutzer in der
heutigen Zeit vor eine große Auswahl. Um bei diesem Übermaß an
Musikangeboten nicht den Überblick zu verlieren, haben Musikgenres eine
Klassifizierung ermöglicht. Das Hauptziel der Arbeit ist die Erfassung der
Entwicklung eines Klassifikationsschemas für moderne Musikgenres und die
Analyse potentieller Anwendungen in Hinblick auf die Bereiche Musik in der TVWerbung,
Musikfestivals und Musik-Streaming-Dienste. Zunächst wird darauf
eingegangen, wie sich die Musik in allen drei Bereichen entwickelt hat,
anschließend wird ein Klassifikationsschema erfasst, wobei
Persönlichkeitsmerkmale von Rezipienten und musikalische Daten erfasst
werden.
Im Anschluss wird in Kapitel 4 auf potentielle Anwendungen der erfassten
Daten eingegangen, woraufhin auch über die Problematik bei der
Musiksortierung und das veränderte Konsumverhalten der Rezipienten
gesprochen wird.
Die folgende medienpraktische Bachelorarbeit behandelt die Umsetzung einer multilingualen Website, die für eine deutsch- sowie englischsprachige Zielgruppe suchmaschinenoptimiert wurde. Als Grundlage dient die bereits bestehende Website des Kölner Künstlerkollektivs „CrossArts Cologne GbR“, die eine Zielgruppenausrichtung auf die Ebene der Bundesrepublik Deutschland sowie die der Europäischen Union hat. Die Website basiert auf dem Content-Management-System Wordpress.
Die Schwerpunkte der schriftlichen Arbeit liegen im Auflisten, Bewerten und Vergleichen der Wordpress-Plugins und Online-Tools, sowie der Dokumentation der praktischen Arbeit. Der Schwerpunkt der medienpraktischen Arbeit liegt in der Umsetzung bzw. Anwendung dieser Plugins und Tools, um das Ziel einer multilingualen suchmaschinenoptimierten Webseite zu erreichen. In den Bewertungen liegt der Fokus auf der Usability für die Suchenden bzw. Websitebesuchern und auf dem Erfolg der technischen Umsetzung.
Das Erreichen der Ziele behandelt diese Dokumentation im Praxistest und dem Fazit. Der gesamte Anhang mit Screenshots, Tabellen und Textdateien ist dem beigefügten Datenträger (CD-ROM) zu entnehmen.
Suchmaschinen sind ein fester Bestandteil des täglichen Lebens geworden. Weil sie so einen Stellenwert haben, ist es heutzutage wichtig zu hinterfragen, wie die Ergebnisse zustande kommen und ob diese beeinflusst werden können. Schließlich gibt es eine gesamte Marketing-Disziplin, die sich darauf spezialisiert hat. Diese Disziplin nennt sich Suchmaschinenoptimierung. Um der Manipulation durch diese und einer Überoptimierung von Seiten zu entgehen, verbessern Suchmaschinenbetreiber im Gegenzug ständig ihre Bewertungskriterien. Dadurch sind die Algorithmen inzwischen sehr komplex geworden. In dieser Arbeit soll am Beispiel von Google getestet werden, wie effektiv die Qualitäts--Algorithmen von Suchmaschinen wirklich sind, wie wichtig die Kenntnisse über Ranking-Faktoren überhaupt sind, um Erfolg zu haben und wie einfach es sein kann Ergebnisse von Suchmaschinen zu manipulieren.
Die vorliegende Arbeit beschäftigt sich mit der Interpretation von Datenvisualisierungen. Der Interpretationsprozess wird aufgeschlüsselt und tiefergehend erklärt. Außerdem wird ein Interpretationsmodell vorgestellt, das auf Grundlage vorherrschender Theorien entwickelt wurde. Das Modell beinhaltet fünf zentrale Interpretationsschritte auf dem Weg hin zu Wissen aus Datenvisualisierungen. Zudem werden die Grundlagen der Gestaltung von Datenvisualisierungen erläutert. Es wird außerdem auf die Bedeutung von Datenvisualisierungen in der Gesellschaft eingegangen. Anhand einer Analyse, mittels einer Befragung von Studierenden, werden die Interpretationskompetenzen zu Datenvisualisierungen im Alltag untersucht, um den Einfluss der Darstellungsform und Komplexität einer Datenvisualisierung zu ermitteln. Außerdem wird die Einschätzung über die eigene Interpretationsfähigkeit von Studierenden erforscht. Zur Erreichung der Forschungsziele werden den Studierenden Wissensfragen zu vier ausgewählten Datenvisualisierung zum Thema COVID-19 gestellt. Abschließend werden die Ergebnisse mit den Hypothesen aus dem Theorieteil verglichen.
Die vorliegende Bachelorarbeit beschreibt Konzeption, Design und Umsetzung der Website für den neuen Forschungsschwerpunkt Knowledge-Discovery an der TH Köln. Die Website soll der Außenrepräsentation des Forschungsschwerpunkts dienen. Der Forschungsschwerpunkt vereint die Fachbereiche Data Science, Information Retrieval und Natural Language Processing und soll die Synergien zwischen den Fachbereichen sowie deren Professoren bestärken. Der Webauftritt soll unter anderem Kooperationen mit anderen Forschern begünstigen.
Vor der Planung und Umsetzung der Website wurden die Anforderungen an die geplante Website aufgenommen. Neben dem Austausch mit den Auftraggebern wurden Anforderungen auch über Zielgruppenanalyse und eine Best Practice Analyse ermittelt.
Von den Auftraggebern ist eine Umsetzung mit GitHub Pages angedacht. Die Umsetzungsmöglichkeiten der Anforderungen mit GitHub Pages sowie mit dem Content Management System WordPress werden im Rahmen der Arbeit geprüft und miteinander verglichen. Die Arbeit behandelt die Frage, ob und wie sich die Website des Schwerpunkts als statische Site mit GitHub Pages umsetzen lässt.
Die Konzeption umfasst die auf der Website vorzustellenden Inhalte, Menüstruktur und -design, Struktur und Inhalt der geplanten Seiten, die stilistische Ausgestaltung der Website und die Planung besonderer Website-Funktionalitäten. Die schlussendliche Umsetzung erfolgt mit einer Kombination aus GitHub Pages und dem im Produkt integrierten Static Site Generator Jekyll.
Die Construal Level Theory gilt als ein wichtiger integrativer Rahmen zur Erklärung verschiedener Entscheidungsphänomene und beschreibt dabei die Beziehung zwischen dem Grad der Abstraktion im menschlichen Denken und der psychologischen Distanz.
Die Auswirkungen dieser kognitiven Vorgänge wurden bereits in unterschiedlichen Kontexten erforscht. Hierbei ist auch der Einfluss auf die Zahlungsbereitschaft der Konsumenten von Interesse, sodass dieses Forschungsgebiet innerhalb dieser Arbeit erneut aufgegriffen wird. Auf Grundlage von bereits durchgeführten Studien ist es das Ziel, mithilfe einer überarbeiteten Methodik den Einfluss der Construal Level Theory auf die Zahlungsbereitschaft zu überprüfen und daraus mögliche marketingrelevante Handlungsempfehlungen abzuleiten. In diesem Zusammenhang wird die folgende Forschungsfrage gestellt: Welchen Einfluss hat die mentale Abstraktion auf den Zusammenhang zwischen der psychologischen Distanz und der Zahlungsbereitschaft?
Für die Überprüfung wurde eine quantitative experimentelle Online-Befragung mit 290 Probanden durchgeführt, bei welcher die Teilnehmenden hinsichtlich der psychologischen Distanz sowie der mentalen Abstraktion beeinflusst wurden und unterschiedliche Produkte und Aktivitäten in Bezug auf ihre Zahlungsbereitschaft bewerten sollten. Die Ergebnisse zeigen, dass grundsätzlich höhere Beträge bei einer nahen psychologischen Distanz zum Produkt oder der Aktivität angegeben wurden.
Ebenso hat die Übereinstimmung der nahen psychologischen Distanz mit einer konkreten Abstraktion zu einer geringeren Zahlungsbereitschaft geführt als bei alleiniger Betrachtung der psychologischen Distanz. Abgeleitet aus diesen Erkenntnissen ist es somit förderlich eine detaillierte Präsentation von Produkten zu wählen sowie auf eine gezielte Formulierung bei der Bewerbung der Produkte zu achten, sodass bestimmte Dimensionen der psychologischen Distanz angesprochen werden. Der zusätzliche Stimulus der nahen Distanzdimensionen, in Form von Produktmerkmalen oder Informationstexten sollte jedoch mit Bedacht eingesetzt werden, um eine letztendlich geringere Zahlungsbereitschaft zu vermeiden. Es muss in diesem Kontext angemerkt werden, dass die Studienergebnisse dieser Arbeit konträr zu bereits durchgeführten Forschungen sowie den grundsätzlichen Annahmen der Construal Level Theory sind, weshalb noch weitere Wiederholungsstudien durchgeführt werden sollten, um die Ergebnisse zu bestätigen und ebenso aktuelle äußere Einflüsse zu berücksichtigen.
Hierzu zählen beispielsweise gesellschaftliche oder politische Veränderungen.
Machine Learning (ML) Prozesse finden seit einigen Jahren immer größere Bedeutung in der Sportindustrie. Sie helfen die Leistungen der Spieler auf dem Feld besser zu analysieren und sorgen für ein tieferes Verständnis in verschiedenen Bereiche im Sport. Die Voraussage eines potenziellen Siegers schon vor Beginn einer Partie begeistert die Industrie und Fans wie die Wissenschaft gleichermaßen. In den letzten Jahren kam es dabei immer wieder zu guten Resultaten in der Prognose von Ergebnissen durch Data Mining Ansätze und ML Algorithmen. Diese Prognosen basieren auf verschiedenen Faktoren, wie historische Spieldaten, Ort des Ereignisses oder Form einer Mannschaft. Diese Arbeit widmet sich dem kritischen Versuch mithilfe der Anwendung verschiedener ML Verfahren und Algorithmen die reguläre Saison der Major League Baseball 2020, auf Basis von Spieldaten vorheriger Saisons, vorherzusagen.
Analyse der Übertragbarkeit allgemeiner Rankingfaktoren von Web-Suchmaschinen auf Discovery-Systeme
(2018)
Ziel dieser Bachelorarbeit war es, die Übertragbarkeit der allgemeinen Rankingfaktoren,
wie sie von Web-Suchmaschinen verwendet werden, auf Discovery-Systeme zu analysieren.
Dadurch könnte das bisher hauptsächlich auf dem textuellen Abgleich zwischen Suchanfrage
und Dokumenten basierende bibliothekarische Ranking verbessert werden.
Hierfür wurden Faktoren aus den Gruppen Popularität, Aktualität, Lokalität, Technische
Faktoren, sowie dem personalisierten Ranking diskutiert. Die entsprechenden Rankingfaktoren
wurden nach ihrer Vorkommenshäufigkeit in der analysierten Literatur und der daraus
abgeleiteten Wichtigkeit, ausgewählt. Von den 23 untersuchten Rankingfaktoren sind 14 (61 %) direkt vom Ranking der
Web-Suchmaschinen auf das Ranking der Discovery-Systeme übertragbar. Zu diesen zählen
unter anderem das Klickverhalten, das Erstellungsdatum, der Nutzerstandort, sowie die Sprache.
Sechs (26%) der untersuchten Faktoren sind dagegen nicht übertragbar (z.B. Aktualisierungsfrequenz
und Ladegeschwindigkeit). Die Linktopologie, die Nutzungshäufigkeit, sowie die
Aktualisierungsfrequenz sind mit entsprechenden Modifikationen übertragbar.
Die Messung des regionalen Wohlstands ist aufgrund der zunehmenden Bedrohungen für die Ernährungssicherheit ein wichtiges Instrument bei der Sicherung des Lebensunterhaltes. So dienen diese unter anderem für die Ausrichtung und Organisation staatlicher und nicht staatlicher Leistungen und Regierungsentscheidungen. Diesen Messungen liegen meist Verbrauchs- und Vermögensbefragungen, wie die des DHS-Programms zugrunde, welche kosten- und zeitaufwendig sind.
Als Lösungsansatz werden im Rahmen dieser Arbeit Machine Learning Modelle entwickelt, die anhand von Satellitendaten und Haushaltsumfragen des DHS-Programms einen Asset Wealth Index für afrikanische Regionen im und rund um das Horn von Afrika vorhersagen. Dazu wird anhand der Umfragedaten mittels einer Hauptkomponentenanalyse der entsprechende Asset Wealth pro Haushalt anhand der Vermögensgegenstände ermittelt. Überdies werden die Geo-Daten in Form von Sentinel-2 und VIIRS-Bildern der Position der Haushalte für die entsprechenden Jahre beschafft. Nach einer statistischen Auswertung der Labeldaten erfolgt die Implementation verschiedener Modelle, nach städtischen und ländlichen Regionen getrennt, mit verschiedenen Eingabeformaten. Nachdem bewiesen wird, dass ein Verknüpfung der Labeldaten vor 2015 mit Sentinel-2-Bildern ab Mitte 2015 sinnvoll ist, wird pro Art der Region jeweils ein Modell ausschließlich auf den Bildern eines der Satelliten sowie auf Bildern aus einer Kombination beider Satelliten trainiert. Dabei zeigen die Modelle in ihren Prognosen eine geringere Varianz als die tatsächlichen Daten, sodass die Differenzierung des Asset Wealth zwischen den Regionen zwar in Ansätzen korrekt, aber deutlich schwächer ausgeprägt ist, als in der Realität. Zudem zeigt sich, dass die Vorhersage ländlicher Regionen vielversprechendere Ergebnisse liefert, als die städtischer Regionen. Die abschließende Prognose des Asset Wealth für Mosambik zeigt nahezu identische Werte zu den im Training und in der Evaluation verwendeten Mosambik-Daten anderer Jahre.
Die vorliegende Bachelorarbeit beschreibt die Konzeption und anschließende medienpraktische Umsetzung des persönlichen Online-Blogs www.thegreenie.eu zum Thema Nachhaltigkeit und einem “Low Impact”-Leben. Dieser bietet aufbereitete Informationen und Handlungstipps für einen nachhaltigeren Lebensstil. Die Konzeption umfasst die Navigationsstruktur, den Aufbau der Site und das Design. Auch die Blog-Inhalte und deren Produktion wurden konzeptionell ausgearbeitet und dokumentiert.
Die Konzeption basiert dabei auf einer Analyse potentieller Nutzer, dem Suchverhalten dieser und einer Benchmark-Analyse themenverwandter Websites. Die Umsetzung des Blogs erfolgte mit dem Content-Management-System Wordpress. Die Dokumentation der vorliegenden Arbeit beschreibt die Auswahl eines Themes und technische Einbindung des Blogs. Außerdem geht daraus hervor, wie der Blog durch integrierte Anpassungsmöglichkeiten im Theme, Plugins und Änderungen im Quellcode personalisiert und dem Zweck angepasst wurde.
Um Traffic zu generieren, wurde die Sichtbarkeit der Website durch Suchmaschinenoptimierung und die Einbindung sozialer Netzwerke erhöht. Die entsprechenden Maßnahmen sind ebenfalls in der Arbeit dokumentiert.
Das Ziel der vorliegenden Bachelorarbeit war es, die Verbindungen von Rechtspopulisten und Rechtsextremisten im Web zu prüfen. Dazu wurden zehn Abgeordnete der AfDBundestagsfraktion mit einer Auswahl von Mitarbeitenden analysiert. Es wurden dazu Ergebnisse in der Suchmaschine Google, Backlinks und Social Media Auftritte angesehen und ausgewertet. Die Ergebnisse können dazu dienen Rückschlüsse auf andere Fraktionen der AfD zu ziehen. Es fand eine Unterteilung in aktive und passive Verbindungen statt. Die Ergebnisse wurden dann auf Prozentzahlen umgerechnet. Dies ermöglichte eine Skalierung auf eine durchschnittliche AfD Landtagsfraktion. Es wurden sowohl aktive als auch passive Verbindungen nachgewiesen. Die Arbeit kommt zu dem Ergebnis, dass es eine Vernetzung zwischen Rechtspopulisten und Rechtsextremisten gibt. Sie kommt auch zu dem Ergebnis, dass sich diese Vernetzung im Web aufzeigen lässt. Sie zeigt jedoch auch, dass es viele Daten gibt die nicht erhoben werden können und es viele Abgeordnete und Mitarbeiter gibt die keine solchen Verbindungen besitzen.
Die vorliegende Bachelorarbeit befasst sich mit der Analyse von Businessprozessen mittels Process Mining. Betrachtet werden sowohl theoretische Grundlagen, als auch die praktische Anwendung von Process Mining. In dieser Arbeit wird untersucht wie relevant der Themenbereich für eine Nutzung ist und welche Chancen und Herausforderungen ein Einsatz von Process Mining beinhaltet.
Funktionsweise und Anwendung von Neuromarketing zur Kaufmotivation und Konsumententbindung im Web
(2019)
Der digitale Wandel verändert nicht nur den Markt, sondern auch das Marketing nachhaltig. Ein großer Anteil des Kaufprozesses findet inzwischen im digitalen Netz statt. Interessenten und potenzielle Kunden suchen im Web nach Informationen über Produkte und deren Preise oder kaufen direkt im Online-Shop. Unternehmen stehen vor der Aufgabe, mit der schnellen Entwicklung von Webtechnologien und digitalen Kommunikationsformen nicht nur Schritt zu halten, sondern den Wandel zu antizipieren und aktiv zu nutzen, um mit digitalen Konzepten und Strategien auch im Web präsent und erfolgreich zu sein. Dies betrifft sowohl die Darstellung des Unternehmens selbst als auch die seiner Marken und Produkte. Im Neuromarketing werden aktuelle Erkenntnisse der Hirnforschung zum Verhalten von Konsumenten interpretiert und in Marketingkonzepte umgesetzt. Durch den Zusammenschluss von Hirnforschung und Marktforschung erlaubt das Neuromarketing viele Rückschlüsse über Kaufmotivation und Markenbindung, die gerade im E-Commerce, der durch Informationsflut und vielfältige Kaufreize gekennzeichnet ist, wertvolle Strategien liefern können, um Kunden erfolgreich auf die eigenen Produkte aufmerksam zu machen. In dieser Arbeit werden daher die Erkenntnisse der Hirnforschung vorgestellt, die für das Neuromarketing relevant sind und die daraus abgeleiteten Konzepte auf ihre erfolgreiche Anwendung im digitalen Netz hin untersucht. Danach werden die Anwendungsmöglichkeiten des Neuromarketings in einer kritischen Analyse zusammengefasst und ein Ausblick auf zukünftige Entwicklungen gegeben.
Die vorliegende Bachelorthesis befasst sich mit der Entwicklung und Umsetzung eines Qualitätsmanagementsystems zur Analyse und Gewährleistung der redaktionellen Qualität von digitalen Stellenanzeigen des Online-Stellenmarktes jobvector. Der theoretische Teil beschreibt die Qualitätsfaktoren in digitalen Informationssystemen sowie die Grundlagen von Software-Qualitätsmanagement und Qualitätssicherungsmaßnahmen und dient als Basis für die Entwicklung und Umsetzung eines Systemtools für das redaktionelle Qualitätsmanagement. Der praktische Teil umfasst die Entwicklung einer kriteriengeleiteten Qualitätsanalyse auf Grundlage redaktioneller Qualitätsfaktoren. Das entwickelte Systemtool zur Erfassung der redaktionellen Qualität sowie die Weiterentwicklung des Content-Management-Systems führen zu einer Effizienzsteigerung der redaktionellen Arbeit und ermöglichen eine Reduzierung der Werbeausgaben für nicht optimierte Stellenanzeigen.
Die Musikindustrie hat über die letzten Jahre einen nachhaltigen, digitalen Wandel erlebt. Sowohl Streaming- als auch Social-Media Plattformen sind zu bedeutenden Akteuren in diesem Bereich herangewachsen. Insbesondere TikTok hat sich dabei als Marketinginstrument für Musiker etabliert. Die vorliegende Bachelorarbeit untersucht die möglichen Faktoren, die den Erfolg von Musikern auf TikTok beeinflussen und wie sie das Kurzvideoportal nutzen können, um ihre Karriere zu fördern. Dafür werden die Erkenntnisse aus relevanten Literaturinhalten, aktuellen Studien und Online-Quellen zusammengefasst und miteinander kombiniert. Zudem werden die Strategien etablierter Musiker und aufstrebender Künstler auf TikTok analysiert. Die Ergebnisse zeigen, dass der Erfolg eines Musikstücks und seines Interpreten auf TikTok sowohl durch die kreative Produktion und Präsentation als auch durch die Interaktion mit der Community beeinflusst werden kann. Für Musiker gilt es, TikTok-Trends zu setzen, sie zu erkennen und auf diese zu reagieren.
Das Ziel der vorliegenden Arbeit ist es zu analysieren, welche Einflusskräfte in der Branche Indoor-Farming wirken und wie hoch ihre Ausprägung ist. Dazu wird die folgende Forschungsfrage gestellt: Welche kritischen Erfolgsfaktoren lassen sich anhand von Porters Five-Forces-Modell für Indoor-Farming-Betriebe identifizieren und welche Chancen, Trends sowie Risiken können daraus abgeleitet werden? Um die Forschungsfrage zu beantworten, wurde mittels der induktiven Forschung eine Literaturrecherche in Branchen relevanten Quellen durchgeführt und diese mit Hilfe von Porters Five-Forces-Modell analysiert. Die Ergebnisse zeigen, dass der Einfluss der Lieferanten stark ausgeprägt ist und der Wettbewerb innerhalb der Branche zunimmt. Zusätzlich befindet sich die Indoor-Farming Branche erst im Aufbau und der Markt wird von wenigen Unternehmen beherrscht. Neben großen Produktionsstätten haben sich kleinere In-Store-Farmen und Container-Farmen etabliert, die es den Unternehmen ermöglichen Transportkosten zu reduzieren. Auf dieser Grundlage ist es empfehlenswert, entsprechende Anbaukonzepte zu optimieren, um einen Wettbewerbsvorteil zu erlangen und kostengünstig dem Endverbraucher frische Produkte bereitzustellen.
Bestimmte Trader legen bei ihren Transaktionen sehr viel Wert auf Risikominimierung. Um zu bestimmen, was für ein Risiko bei einem Kauf eingegangen wird, greifen sie insbesondere auf Daten zur Volatilität der Aktien zurück. Besonders informativ ist dabei die prognostizierte zukünftige Volatilität der Aktien.
Die vorliegende Arbeit behandelt die Volatilitätsprediktion mit Hilfe von rekurrenten neuronalen Netzen. Mithilfe von Modellen sollen Volatilitäten in Finanzmarktdaten prognostiziert werden. Dazu wurde folgende Forschungsfrage entwickelt: Wie und mit welcher Genauigkeit sind rekurrente neuronale Netze in der Lage, die Volatilität von Finanzmarktdaten voraus zu sagen? Außerdem wurde der Ansatz verfolgt, unterschiedliche rekurrente neuronale Netze im Bezug auf das Prognosepotential der jeweiligen Arten zu vergleichen.
Zu diesem Zweck wurden vier verschiedene Modelle erstellt und mit Daten des deutschen Aktienindex DAX trainiert. Auf Basis des Trainings prognostizierten die Modelle eine gewisse Anzahl an Volatilitätswerten. Mithilfe dieser Vorhersagewerte wurden die Modelle dann auf unterschiedliche Aspekte analysiert und interpretiert.
Die Ergebnisse zeigen, dass komplexere Modelle wie ein Long-Short-Term-Memory (LSTM), ein Gated Recurrent Unit (GRU) oder Kombinationen aus LSTM und GRU bessere Ergebnisse liefern als simplere rekurrente neuronale Netze, da erstere mehr Informationen aus den vorangegangenen Daten nutzen können und so eine Art Langzeitgedächtnis entwickeln. Weitere Forschung könnte Bezug auf andere Daten nehmen und so ein General-Purpose-Modell für unterschiedliche Indizes erstellen.
Durch den rasanten Anstieg der Digitalisierung gewinnt die Datenanalyse in Unternehmen und Forschungsprojekten immer mehr an Bedeutung. Dabei ist eine Datenanalyse für nicht ausgebildetes Personal schwierig umzusetzen. Dementsprechend wird im Rahmen der Bachelorarbeit ein Tutorial für die Durchführung einer Datenanalyse in Microsoft Power BI entwickelt. Die Entwicklung wird sich mit der Frage auseinandersetzen, wie sich die Grundlagen zielgerichtet erklären lassen, wenn die Nutzer des Tutorials keine Kenntnisse in Programmiersprachen besitzen. Denn der theoretische Teil behandelt die Grundlagen von Microsoft Power BI und der Formelsprache DAX. Darauf aufbauend werden im praktischen Teil des Tutorials die DAX-Funktionen für die Datenanalyse auf einen zur Verfügung gestellten Datensatz angewendet. Zum Schluss wird aus dem entwickelten Tutorial ein abgeleitetes Visualisierungsbeispiel vorgelegt.
Im Zuge ansteigender Datenmenge und der zunehmenden Anforderung, ein datengetriebenes Unternehmen zu werden, steigt auch die Komplexheit hinsichtlich der Datenintegration. Dabei gibt die Datenarchitektur stark vor, wie die Datenintegration erfolgt, doch gerade in diesem Umfeld hat sich in den letzten Jahren viel bewegt: Nach dem Data Warehouse kam der Data Lake und seit einigen Jahren wird verstärkt der Data Mesh diskutiert. Hier knüpft diese Arbeit mit einem multikriterielle Entscheidungsmodell an, das erarbeitet sowie zur Machbarkeitsanalyse exemplarisch an einem fiktiven Fallbeispiel appliziert wird. Dies schließt insbesondere eine fundierte und literaturgestützte Recherche der Architekturalternativen, der entscheidungskritischen Kriterien sowie der multikriteriellen Beschreibung der Alternativen ein.
Der Analytic Hierarchy Process ist dabei die Methode, mit der die Kriterien und Alternativen untereinander verglichen werden. Der Anwendung der Entscheidungshilfe liegt dabei ein fiktives Fallbeispiel eines Einzelhandel Unternehmens zugrunde. Das Unternehmen wird charakterisiert und die Kriterien untereinander, im Hinblick auf die drei Alternativen und bezogen auf das Fallbeispiel, bewertet.
Die Forschung ist sowohl akademisch als auch für Praktiker relevant und setzt eine bewährte Methode zur strukturierten Entscheidungsanalyse ein. Die Ergebnisse sind auf andere, insbesondere vergleichbare Problemstellungen übertragbar. Weitere Forschungsstränge können sich auf weitere Entscheidungsanalysemethoden beziehen und auch experimenteller Natur sein, die das gewichtete Entscheidungsmodell auf seine Validität prüfen können.
Das Ziel in dieser Arbeit soll es sein ein Recommender System für den Fußball zu entwickeln, welches Vereine bei der Suche nach potenziellen neuen Spielern unterstützen soll. Um dieses System zu entwickeln bedarf es zunächst einer Sichtung von möglichen Datenquellen. Hierzu wird letztlich ein Webscraper verwendet um benötigte Daten von Spielern von der Seite fbref.com zu sammeln. Für die Analyse der Daten wird das k-means Clustering verwendet, welches die Spieler innerhalb ihrer unterschiedlichen Spielstile einteilen soll. Zur Verbesserung der Clustering Ergebnisse werden die Spieler bereits zuvor in die Kategorien Verteidigung, Mittelfeld und Sturm unterteilt. Die gewonnenen Spielercluster werden in einem abschließenden Schritt mittels Faktorenanalyse miteinander verglichen und die Spieler erhalten innerhalb ihres Clusters eine Platzierung. Mit Hilfe dieser Platzierung soll es Vereinen ermöglicht werden, bereits erste Vorauswahlen treffen zu können.