Refine
Document Type
- Bachelor Thesis (24)
- Master's Thesis (3)
Keywords
- Suchmaschine (3)
- WordPress (3)
- Daten (2)
- Nachhaltigkeit (2)
- Power BI (2)
- Suchmaschinenoptimierung (2)
- Visualisierung (2)
- Website (2)
- Alltag (1)
- Alternative für Deutschland (1)
Die Musikindustrie hat über die letzten Jahre einen nachhaltigen, digitalen Wandel erlebt. Sowohl Streaming- als auch Social-Media Plattformen sind zu bedeutenden Akteuren in diesem Bereich herangewachsen. Insbesondere TikTok hat sich dabei als Marketinginstrument für Musiker etabliert. Die vorliegende Bachelorarbeit untersucht die möglichen Faktoren, die den Erfolg von Musikern auf TikTok beeinflussen und wie sie das Kurzvideoportal nutzen können, um ihre Karriere zu fördern. Dafür werden die Erkenntnisse aus relevanten Literaturinhalten, aktuellen Studien und Online-Quellen zusammengefasst und miteinander kombiniert. Zudem werden die Strategien etablierter Musiker und aufstrebender Künstler auf TikTok analysiert. Die Ergebnisse zeigen, dass der Erfolg eines Musikstücks und seines Interpreten auf TikTok sowohl durch die kreative Produktion und Präsentation als auch durch die Interaktion mit der Community beeinflusst werden kann. Für Musiker gilt es, TikTok-Trends zu setzen, sie zu erkennen und auf diese zu reagieren.
Die folgende medienpraktische Bachelorarbeit behandelt die Umsetzung einer multilingualen Website, die für eine deutsch- sowie englischsprachige Zielgruppe suchmaschinenoptimiert wurde. Als Grundlage dient die bereits bestehende Website des Kölner Künstlerkollektivs „CrossArts Cologne GbR“, die eine Zielgruppenausrichtung auf die Ebene der Bundesrepublik Deutschland sowie die der Europäischen Union hat. Die Website basiert auf dem Content-Management-System Wordpress.
Die Schwerpunkte der schriftlichen Arbeit liegen im Auflisten, Bewerten und Vergleichen der Wordpress-Plugins und Online-Tools, sowie der Dokumentation der praktischen Arbeit. Der Schwerpunkt der medienpraktischen Arbeit liegt in der Umsetzung bzw. Anwendung dieser Plugins und Tools, um das Ziel einer multilingualen suchmaschinenoptimierten Webseite zu erreichen. In den Bewertungen liegt der Fokus auf der Usability für die Suchenden bzw. Websitebesuchern und auf dem Erfolg der technischen Umsetzung.
Das Erreichen der Ziele behandelt diese Dokumentation im Praxistest und dem Fazit. Der gesamte Anhang mit Screenshots, Tabellen und Textdateien ist dem beigefügten Datenträger (CD-ROM) zu entnehmen.
Die vorliegende Bachelorarbeit befasst sich mit der Analyse von Businessprozessen mittels Process Mining. Betrachtet werden sowohl theoretische Grundlagen, als auch die praktische Anwendung von Process Mining. In dieser Arbeit wird untersucht wie relevant der Themenbereich für eine Nutzung ist und welche Chancen und Herausforderungen ein Einsatz von Process Mining beinhaltet.
Bestimmte Trader legen bei ihren Transaktionen sehr viel Wert auf Risikominimierung. Um zu bestimmen, was für ein Risiko bei einem Kauf eingegangen wird, greifen sie insbesondere auf Daten zur Volatilität der Aktien zurück. Besonders informativ ist dabei die prognostizierte zukünftige Volatilität der Aktien.
Die vorliegende Arbeit behandelt die Volatilitätsprediktion mit Hilfe von rekurrenten neuronalen Netzen. Mithilfe von Modellen sollen Volatilitäten in Finanzmarktdaten prognostiziert werden. Dazu wurde folgende Forschungsfrage entwickelt: Wie und mit welcher Genauigkeit sind rekurrente neuronale Netze in der Lage, die Volatilität von Finanzmarktdaten voraus zu sagen? Außerdem wurde der Ansatz verfolgt, unterschiedliche rekurrente neuronale Netze im Bezug auf das Prognosepotential der jeweiligen Arten zu vergleichen.
Zu diesem Zweck wurden vier verschiedene Modelle erstellt und mit Daten des deutschen Aktienindex DAX trainiert. Auf Basis des Trainings prognostizierten die Modelle eine gewisse Anzahl an Volatilitätswerten. Mithilfe dieser Vorhersagewerte wurden die Modelle dann auf unterschiedliche Aspekte analysiert und interpretiert.
Die Ergebnisse zeigen, dass komplexere Modelle wie ein Long-Short-Term-Memory (LSTM), ein Gated Recurrent Unit (GRU) oder Kombinationen aus LSTM und GRU bessere Ergebnisse liefern als simplere rekurrente neuronale Netze, da erstere mehr Informationen aus den vorangegangenen Daten nutzen können und so eine Art Langzeitgedächtnis entwickeln. Weitere Forschung könnte Bezug auf andere Daten nehmen und so ein General-Purpose-Modell für unterschiedliche Indizes erstellen.
Das Ziel der vorliegenden Bachelorarbeit war es, die Verbindungen von Rechtspopulisten und Rechtsextremisten im Web zu prüfen. Dazu wurden zehn Abgeordnete der AfDBundestagsfraktion mit einer Auswahl von Mitarbeitenden analysiert. Es wurden dazu Ergebnisse in der Suchmaschine Google, Backlinks und Social Media Auftritte angesehen und ausgewertet. Die Ergebnisse können dazu dienen Rückschlüsse auf andere Fraktionen der AfD zu ziehen. Es fand eine Unterteilung in aktive und passive Verbindungen statt. Die Ergebnisse wurden dann auf Prozentzahlen umgerechnet. Dies ermöglichte eine Skalierung auf eine durchschnittliche AfD Landtagsfraktion. Es wurden sowohl aktive als auch passive Verbindungen nachgewiesen. Die Arbeit kommt zu dem Ergebnis, dass es eine Vernetzung zwischen Rechtspopulisten und Rechtsextremisten gibt. Sie kommt auch zu dem Ergebnis, dass sich diese Vernetzung im Web aufzeigen lässt. Sie zeigt jedoch auch, dass es viele Daten gibt die nicht erhoben werden können und es viele Abgeordnete und Mitarbeiter gibt die keine solchen Verbindungen besitzen.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Konzeption und medienpraktischen Umsetzung einer Website für einen fiktiven Kunden mit einer fiktiven Dienstleistung. Unter www.marcel-greve-ba.de kann die Website eingesehen werden. Der Fokus des Projekts liegt auf einer Analyse der Eigenschaften der Zielgruppe des Kunden. Aus diesen Eigenschaften werden die inhaltlichen und optischen Anforderungen an die Website und die Social-Media-Profile abgeleitet. Anschließend werden Entwürfe zur Website-Struktur und des späteren Designs angefertigt. Die technische Umsetzung erfolgt mit dem Content Management System (CMS) Wordpress. Im Zuge dessen wird erläutert, welche Plugins verwendet und welche Änderungen an der Formatierung vorgenommen wurden. Zusätzlich wird eine Social-Media-Strategie ausgearbeitet.
Text Mining bietet die Möglichkeit, große Textmengen durch automatisierte Verfahren zu analysieren. Die vorliegende Arbeit beschäftigt sich mit der Anwendung und Evaluation solcher Methoden für die spezielle Textform freier Antworten aus Mitarbeiterbefragungen. Dabei werden verschiedene Techniken aus den drei Bereichen Phrasenextraktion, Sentimentanalyse und Kategorisierung dargestellt und an einer konkreten Umfrage angewendet. Die Ergebnisse werden jeweils durch Abgleich mit manuellen Ergebnissen bzw. durch manuelle Bewertungen evaluiert und die Resultate untereinander verglichen. Die genutzten Verfahren sollten ohne spezifische Trainingsdaten oder Projektinformationen anwendbar sein und sich somit auch für andere Mitarbeiterbefragungen eignen.
Die Phrasenextraktion wird auf drei verschiedene Weisen durchgeführt, wobei Part-of-Speech (POS)-Chunking, Stoppwortbegrenzung und Kookkurrenzen genutzt werden. Die Untersuchungen zeigen, dass mit dem POS-Chunking präziser die relevantesten Phrasen aus längeren Texten ermittelt werden können. Die Methode der Stoppwortbegrenzung extrahiert dagegen eine größere Vielfalt relevanter Phrasen auch aus kürzeren Texten. Manuelle Einschätzungen der Extraktionsergebnisse bewerten die Methode mit POS-Chunking am besten. Darüber hinaus wird eine automatisierte Zusammenfassung semantisch ähnlicher Phrasen durchgeführt, wodurch sich leichte Verbesserungen einiger Evaluationsergebnisse zeigten.
Für die Sentimentanalyse der freien Antworten wird eine Erweiterung eines bestehenden Verfahrens aus dem Social Media-Bereich dargestellt. Hierzu werden der Methode vier Regeln hinzugefügt, welche die Sentimentbewertung aufgrund bestimmter Syntaxformen in den freien Antworten verändern. Die Evaluation zeigt, dass drei der vier Regeln dazu beitragen, dass sich die automatisierte Bewertung manuellen Bewertungen annähert.
Die Kategorisierung wird durch die beiden Topic Modeling-Methoden Latent Dirichlet Allocation (LDA) und Non-negative Matrix Factorization (NMF) durchgeführt. NMF erreichte bei dem Abgleich mit einer manuellen Kategorisierung höhere Übereinstimmungen und zeichnete sich auch durch eine bessere Abgrenzung der Thematiken sowie eine bessere Interpretierbarkeit aus.
Die Text Mining-Methoden und deren Evaluationen werden für diese Arbeit in der Programmiersprache Python umgesetzt. Außerdem werden die Text Mining-Resultate in die Datenvisualisierungssoftware Tableau eingebunden.
In der vorliegenden Arbeit wird ein Einblick in Eignung und Unterschiede verschiedener Text Mining-Methoden in Bezug auf freie Antworten in Mitarbeiterbefragungen gegeben. Darüber hinaus wird dargestellt, dass auch spezifische Anpassungen an diese Textform möglich sind. Zusätzlich werden diverse Optimierungsansätze aufgezeigt, die den noch großen Weiterentwicklungsbedarf in diesem Bereich verdeutlichen.
Die vorliegende Bachelorarbeit beschreibt Konzeption, Design und Umsetzung der Website für den neuen Forschungsschwerpunkt Knowledge-Discovery an der TH Köln. Die Website soll der Außenrepräsentation des Forschungsschwerpunkts dienen. Der Forschungsschwerpunkt vereint die Fachbereiche Data Science, Information Retrieval und Natural Language Processing und soll die Synergien zwischen den Fachbereichen sowie deren Professoren bestärken. Der Webauftritt soll unter anderem Kooperationen mit anderen Forschern begünstigen.
Vor der Planung und Umsetzung der Website wurden die Anforderungen an die geplante Website aufgenommen. Neben dem Austausch mit den Auftraggebern wurden Anforderungen auch über Zielgruppenanalyse und eine Best Practice Analyse ermittelt.
Von den Auftraggebern ist eine Umsetzung mit GitHub Pages angedacht. Die Umsetzungsmöglichkeiten der Anforderungen mit GitHub Pages sowie mit dem Content Management System WordPress werden im Rahmen der Arbeit geprüft und miteinander verglichen. Die Arbeit behandelt die Frage, ob und wie sich die Website des Schwerpunkts als statische Site mit GitHub Pages umsetzen lässt.
Die Konzeption umfasst die auf der Website vorzustellenden Inhalte, Menüstruktur und -design, Struktur und Inhalt der geplanten Seiten, die stilistische Ausgestaltung der Website und die Planung besonderer Website-Funktionalitäten. Die schlussendliche Umsetzung erfolgt mit einer Kombination aus GitHub Pages und dem im Produkt integrierten Static Site Generator Jekyll.
Die vorliegende Arbeit beschäftigt sich mit der Interpretation von Datenvisualisierungen. Der Interpretationsprozess wird aufgeschlüsselt und tiefergehend erklärt. Außerdem wird ein Interpretationsmodell vorgestellt, das auf Grundlage vorherrschender Theorien entwickelt wurde. Das Modell beinhaltet fünf zentrale Interpretationsschritte auf dem Weg hin zu Wissen aus Datenvisualisierungen. Zudem werden die Grundlagen der Gestaltung von Datenvisualisierungen erläutert. Es wird außerdem auf die Bedeutung von Datenvisualisierungen in der Gesellschaft eingegangen. Anhand einer Analyse, mittels einer Befragung von Studierenden, werden die Interpretationskompetenzen zu Datenvisualisierungen im Alltag untersucht, um den Einfluss der Darstellungsform und Komplexität einer Datenvisualisierung zu ermitteln. Außerdem wird die Einschätzung über die eigene Interpretationsfähigkeit von Studierenden erforscht. Zur Erreichung der Forschungsziele werden den Studierenden Wissensfragen zu vier ausgewählten Datenvisualisierung zum Thema COVID-19 gestellt. Abschließend werden die Ergebnisse mit den Hypothesen aus dem Theorieteil verglichen.