Refine
Document Type
- Bachelor Thesis (24)
- Master's Thesis (3)
Keywords
- Suchmaschine (3)
- WordPress (3)
- Daten (2)
- Nachhaltigkeit (2)
- Power BI (2)
- Suchmaschinenoptimierung (2)
- Visualisierung (2)
- Website (2)
- Alltag (1)
- Alternative für Deutschland (1)
Die Musikindustrie hat über die letzten Jahre einen nachhaltigen, digitalen Wandel erlebt. Sowohl Streaming- als auch Social-Media Plattformen sind zu bedeutenden Akteuren in diesem Bereich herangewachsen. Insbesondere TikTok hat sich dabei als Marketinginstrument für Musiker etabliert. Die vorliegende Bachelorarbeit untersucht die möglichen Faktoren, die den Erfolg von Musikern auf TikTok beeinflussen und wie sie das Kurzvideoportal nutzen können, um ihre Karriere zu fördern. Dafür werden die Erkenntnisse aus relevanten Literaturinhalten, aktuellen Studien und Online-Quellen zusammengefasst und miteinander kombiniert. Zudem werden die Strategien etablierter Musiker und aufstrebender Künstler auf TikTok analysiert. Die Ergebnisse zeigen, dass der Erfolg eines Musikstücks und seines Interpreten auf TikTok sowohl durch die kreative Produktion und Präsentation als auch durch die Interaktion mit der Community beeinflusst werden kann. Für Musiker gilt es, TikTok-Trends zu setzen, sie zu erkennen und auf diese zu reagieren.
Das Ziel in dieser Arbeit soll es sein ein Recommender System für den Fußball zu entwickeln, welches Vereine bei der Suche nach potenziellen neuen Spielern unterstützen soll. Um dieses System zu entwickeln bedarf es zunächst einer Sichtung von möglichen Datenquellen. Hierzu wird letztlich ein Webscraper verwendet um benötigte Daten von Spielern von der Seite fbref.com zu sammeln. Für die Analyse der Daten wird das k-means Clustering verwendet, welches die Spieler innerhalb ihrer unterschiedlichen Spielstile einteilen soll. Zur Verbesserung der Clustering Ergebnisse werden die Spieler bereits zuvor in die Kategorien Verteidigung, Mittelfeld und Sturm unterteilt. Die gewonnenen Spielercluster werden in einem abschließenden Schritt mittels Faktorenanalyse miteinander verglichen und die Spieler erhalten innerhalb ihres Clusters eine Platzierung. Mit Hilfe dieser Platzierung soll es Vereinen ermöglicht werden, bereits erste Vorauswahlen treffen zu können.
Machine Learning (ML) Prozesse finden seit einigen Jahren immer größere Bedeutung in der Sportindustrie. Sie helfen die Leistungen der Spieler auf dem Feld besser zu analysieren und sorgen für ein tieferes Verständnis in verschiedenen Bereiche im Sport. Die Voraussage eines potenziellen Siegers schon vor Beginn einer Partie begeistert die Industrie und Fans wie die Wissenschaft gleichermaßen. In den letzten Jahren kam es dabei immer wieder zu guten Resultaten in der Prognose von Ergebnissen durch Data Mining Ansätze und ML Algorithmen. Diese Prognosen basieren auf verschiedenen Faktoren, wie historische Spieldaten, Ort des Ereignisses oder Form einer Mannschaft. Diese Arbeit widmet sich dem kritischen Versuch mithilfe der Anwendung verschiedener ML Verfahren und Algorithmen die reguläre Saison der Major League Baseball 2020, auf Basis von Spieldaten vorheriger Saisons, vorherzusagen.
Die Messung des regionalen Wohlstands ist aufgrund der zunehmenden Bedrohungen für die Ernährungssicherheit ein wichtiges Instrument bei der Sicherung des Lebensunterhaltes. So dienen diese unter anderem für die Ausrichtung und Organisation staatlicher und nicht staatlicher Leistungen und Regierungsentscheidungen. Diesen Messungen liegen meist Verbrauchs- und Vermögensbefragungen, wie die des DHS-Programms zugrunde, welche kosten- und zeitaufwendig sind.
Als Lösungsansatz werden im Rahmen dieser Arbeit Machine Learning Modelle entwickelt, die anhand von Satellitendaten und Haushaltsumfragen des DHS-Programms einen Asset Wealth Index für afrikanische Regionen im und rund um das Horn von Afrika vorhersagen. Dazu wird anhand der Umfragedaten mittels einer Hauptkomponentenanalyse der entsprechende Asset Wealth pro Haushalt anhand der Vermögensgegenstände ermittelt. Überdies werden die Geo-Daten in Form von Sentinel-2 und VIIRS-Bildern der Position der Haushalte für die entsprechenden Jahre beschafft. Nach einer statistischen Auswertung der Labeldaten erfolgt die Implementation verschiedener Modelle, nach städtischen und ländlichen Regionen getrennt, mit verschiedenen Eingabeformaten. Nachdem bewiesen wird, dass ein Verknüpfung der Labeldaten vor 2015 mit Sentinel-2-Bildern ab Mitte 2015 sinnvoll ist, wird pro Art der Region jeweils ein Modell ausschließlich auf den Bildern eines der Satelliten sowie auf Bildern aus einer Kombination beider Satelliten trainiert. Dabei zeigen die Modelle in ihren Prognosen eine geringere Varianz als die tatsächlichen Daten, sodass die Differenzierung des Asset Wealth zwischen den Regionen zwar in Ansätzen korrekt, aber deutlich schwächer ausgeprägt ist, als in der Realität. Zudem zeigt sich, dass die Vorhersage ländlicher Regionen vielversprechendere Ergebnisse liefert, als die städtischer Regionen. Die abschließende Prognose des Asset Wealth für Mosambik zeigt nahezu identische Werte zu den im Training und in der Evaluation verwendeten Mosambik-Daten anderer Jahre.
Das Ziel der vorliegenden Arbeit ist es zu analysieren, welche Einflusskräfte in der Branche Indoor-Farming wirken und wie hoch ihre Ausprägung ist. Dazu wird die folgende Forschungsfrage gestellt: Welche kritischen Erfolgsfaktoren lassen sich anhand von Porters Five-Forces-Modell für Indoor-Farming-Betriebe identifizieren und welche Chancen, Trends sowie Risiken können daraus abgeleitet werden? Um die Forschungsfrage zu beantworten, wurde mittels der induktiven Forschung eine Literaturrecherche in Branchen relevanten Quellen durchgeführt und diese mit Hilfe von Porters Five-Forces-Modell analysiert. Die Ergebnisse zeigen, dass der Einfluss der Lieferanten stark ausgeprägt ist und der Wettbewerb innerhalb der Branche zunimmt. Zusätzlich befindet sich die Indoor-Farming Branche erst im Aufbau und der Markt wird von wenigen Unternehmen beherrscht. Neben großen Produktionsstätten haben sich kleinere In-Store-Farmen und Container-Farmen etabliert, die es den Unternehmen ermöglichen Transportkosten zu reduzieren. Auf dieser Grundlage ist es empfehlenswert, entsprechende Anbaukonzepte zu optimieren, um einen Wettbewerbsvorteil zu erlangen und kostengünstig dem Endverbraucher frische Produkte bereitzustellen.
Bestimmte Trader legen bei ihren Transaktionen sehr viel Wert auf Risikominimierung. Um zu bestimmen, was für ein Risiko bei einem Kauf eingegangen wird, greifen sie insbesondere auf Daten zur Volatilität der Aktien zurück. Besonders informativ ist dabei die prognostizierte zukünftige Volatilität der Aktien.
Die vorliegende Arbeit behandelt die Volatilitätsprediktion mit Hilfe von rekurrenten neuronalen Netzen. Mithilfe von Modellen sollen Volatilitäten in Finanzmarktdaten prognostiziert werden. Dazu wurde folgende Forschungsfrage entwickelt: Wie und mit welcher Genauigkeit sind rekurrente neuronale Netze in der Lage, die Volatilität von Finanzmarktdaten voraus zu sagen? Außerdem wurde der Ansatz verfolgt, unterschiedliche rekurrente neuronale Netze im Bezug auf das Prognosepotential der jeweiligen Arten zu vergleichen.
Zu diesem Zweck wurden vier verschiedene Modelle erstellt und mit Daten des deutschen Aktienindex DAX trainiert. Auf Basis des Trainings prognostizierten die Modelle eine gewisse Anzahl an Volatilitätswerten. Mithilfe dieser Vorhersagewerte wurden die Modelle dann auf unterschiedliche Aspekte analysiert und interpretiert.
Die Ergebnisse zeigen, dass komplexere Modelle wie ein Long-Short-Term-Memory (LSTM), ein Gated Recurrent Unit (GRU) oder Kombinationen aus LSTM und GRU bessere Ergebnisse liefern als simplere rekurrente neuronale Netze, da erstere mehr Informationen aus den vorangegangenen Daten nutzen können und so eine Art Langzeitgedächtnis entwickeln. Weitere Forschung könnte Bezug auf andere Daten nehmen und so ein General-Purpose-Modell für unterschiedliche Indizes erstellen.
Durch den rasanten Anstieg der Digitalisierung gewinnt die Datenanalyse in Unternehmen und Forschungsprojekten immer mehr an Bedeutung. Dabei ist eine Datenanalyse für nicht ausgebildetes Personal schwierig umzusetzen. Dementsprechend wird im Rahmen der Bachelorarbeit ein Tutorial für die Durchführung einer Datenanalyse in Microsoft Power BI entwickelt. Die Entwicklung wird sich mit der Frage auseinandersetzen, wie sich die Grundlagen zielgerichtet erklären lassen, wenn die Nutzer des Tutorials keine Kenntnisse in Programmiersprachen besitzen. Denn der theoretische Teil behandelt die Grundlagen von Microsoft Power BI und der Formelsprache DAX. Darauf aufbauend werden im praktischen Teil des Tutorials die DAX-Funktionen für die Datenanalyse auf einen zur Verfügung gestellten Datensatz angewendet. Zum Schluss wird aus dem entwickelten Tutorial ein abgeleitetes Visualisierungsbeispiel vorgelegt.
Im Zuge ansteigender Datenmenge und der zunehmenden Anforderung, ein datengetriebenes Unternehmen zu werden, steigt auch die Komplexheit hinsichtlich der Datenintegration. Dabei gibt die Datenarchitektur stark vor, wie die Datenintegration erfolgt, doch gerade in diesem Umfeld hat sich in den letzten Jahren viel bewegt: Nach dem Data Warehouse kam der Data Lake und seit einigen Jahren wird verstärkt der Data Mesh diskutiert. Hier knüpft diese Arbeit mit einem multikriterielle Entscheidungsmodell an, das erarbeitet sowie zur Machbarkeitsanalyse exemplarisch an einem fiktiven Fallbeispiel appliziert wird. Dies schließt insbesondere eine fundierte und literaturgestützte Recherche der Architekturalternativen, der entscheidungskritischen Kriterien sowie der multikriteriellen Beschreibung der Alternativen ein.
Der Analytic Hierarchy Process ist dabei die Methode, mit der die Kriterien und Alternativen untereinander verglichen werden. Der Anwendung der Entscheidungshilfe liegt dabei ein fiktives Fallbeispiel eines Einzelhandel Unternehmens zugrunde. Das Unternehmen wird charakterisiert und die Kriterien untereinander, im Hinblick auf die drei Alternativen und bezogen auf das Fallbeispiel, bewertet.
Die Forschung ist sowohl akademisch als auch für Praktiker relevant und setzt eine bewährte Methode zur strukturierten Entscheidungsanalyse ein. Die Ergebnisse sind auf andere, insbesondere vergleichbare Problemstellungen übertragbar. Weitere Forschungsstränge können sich auf weitere Entscheidungsanalysemethoden beziehen und auch experimenteller Natur sein, die das gewichtete Entscheidungsmodell auf seine Validität prüfen können.
Die vorliegende Arbeit beschäftigt sich mit der Interpretation von Datenvisualisierungen. Der Interpretationsprozess wird aufgeschlüsselt und tiefergehend erklärt. Außerdem wird ein Interpretationsmodell vorgestellt, das auf Grundlage vorherrschender Theorien entwickelt wurde. Das Modell beinhaltet fünf zentrale Interpretationsschritte auf dem Weg hin zu Wissen aus Datenvisualisierungen. Zudem werden die Grundlagen der Gestaltung von Datenvisualisierungen erläutert. Es wird außerdem auf die Bedeutung von Datenvisualisierungen in der Gesellschaft eingegangen. Anhand einer Analyse, mittels einer Befragung von Studierenden, werden die Interpretationskompetenzen zu Datenvisualisierungen im Alltag untersucht, um den Einfluss der Darstellungsform und Komplexität einer Datenvisualisierung zu ermitteln. Außerdem wird die Einschätzung über die eigene Interpretationsfähigkeit von Studierenden erforscht. Zur Erreichung der Forschungsziele werden den Studierenden Wissensfragen zu vier ausgewählten Datenvisualisierung zum Thema COVID-19 gestellt. Abschließend werden die Ergebnisse mit den Hypothesen aus dem Theorieteil verglichen.
Die vorliegende Bachelorarbeit beschreibt Konzeption, Design und Umsetzung der Website für den neuen Forschungsschwerpunkt Knowledge-Discovery an der TH Köln. Die Website soll der Außenrepräsentation des Forschungsschwerpunkts dienen. Der Forschungsschwerpunkt vereint die Fachbereiche Data Science, Information Retrieval und Natural Language Processing und soll die Synergien zwischen den Fachbereichen sowie deren Professoren bestärken. Der Webauftritt soll unter anderem Kooperationen mit anderen Forschern begünstigen.
Vor der Planung und Umsetzung der Website wurden die Anforderungen an die geplante Website aufgenommen. Neben dem Austausch mit den Auftraggebern wurden Anforderungen auch über Zielgruppenanalyse und eine Best Practice Analyse ermittelt.
Von den Auftraggebern ist eine Umsetzung mit GitHub Pages angedacht. Die Umsetzungsmöglichkeiten der Anforderungen mit GitHub Pages sowie mit dem Content Management System WordPress werden im Rahmen der Arbeit geprüft und miteinander verglichen. Die Arbeit behandelt die Frage, ob und wie sich die Website des Schwerpunkts als statische Site mit GitHub Pages umsetzen lässt.
Die Konzeption umfasst die auf der Website vorzustellenden Inhalte, Menüstruktur und -design, Struktur und Inhalt der geplanten Seiten, die stilistische Ausgestaltung der Website und die Planung besonderer Website-Funktionalitäten. Die schlussendliche Umsetzung erfolgt mit einer Kombination aus GitHub Pages und dem im Produkt integrierten Static Site Generator Jekyll.