Refine
Document Type
- Bachelor Thesis (24)
- Master's Thesis (3)
Keywords
- Suchmaschine (3)
- WordPress (3)
- Daten (2)
- Nachhaltigkeit (2)
- Power BI (2)
- Suchmaschinenoptimierung (2)
- Visualisierung (2)
- Website (2)
- Alltag (1)
- Alternative für Deutschland (1)
Suchmaschinen sind ein fester Bestandteil des täglichen Lebens geworden. Weil sie so einen Stellenwert haben, ist es heutzutage wichtig zu hinterfragen, wie die Ergebnisse zustande kommen und ob diese beeinflusst werden können. Schließlich gibt es eine gesamte Marketing-Disziplin, die sich darauf spezialisiert hat. Diese Disziplin nennt sich Suchmaschinenoptimierung. Um der Manipulation durch diese und einer Überoptimierung von Seiten zu entgehen, verbessern Suchmaschinenbetreiber im Gegenzug ständig ihre Bewertungskriterien. Dadurch sind die Algorithmen inzwischen sehr komplex geworden. In dieser Arbeit soll am Beispiel von Google getestet werden, wie effektiv die Qualitäts--Algorithmen von Suchmaschinen wirklich sind, wie wichtig die Kenntnisse über Ranking-Faktoren überhaupt sind, um Erfolg zu haben und wie einfach es sein kann Ergebnisse von Suchmaschinen zu manipulieren.
Machine Learning (ML) Prozesse finden seit einigen Jahren immer größere Bedeutung in der Sportindustrie. Sie helfen die Leistungen der Spieler auf dem Feld besser zu analysieren und sorgen für ein tieferes Verständnis in verschiedenen Bereiche im Sport. Die Voraussage eines potenziellen Siegers schon vor Beginn einer Partie begeistert die Industrie und Fans wie die Wissenschaft gleichermaßen. In den letzten Jahren kam es dabei immer wieder zu guten Resultaten in der Prognose von Ergebnissen durch Data Mining Ansätze und ML Algorithmen. Diese Prognosen basieren auf verschiedenen Faktoren, wie historische Spieldaten, Ort des Ereignisses oder Form einer Mannschaft. Diese Arbeit widmet sich dem kritischen Versuch mithilfe der Anwendung verschiedener ML Verfahren und Algorithmen die reguläre Saison der Major League Baseball 2020, auf Basis von Spieldaten vorheriger Saisons, vorherzusagen.
Die vorliegende Bachelorarbeit hat die Entwicklung eines Veranstaltungskonzepts zum Ziel, welches zur Vermittlung von Suchmaschinenkompetenz an Nutzer Öffentlicher Bibliotheken verwendet werden kann. Ausgangsbasis dafür ist die Annahme, dass Suchmaschinenkompetenz als Teil von Informationskompetenz zu sehen ist und somit ins Aufgabenspektrum Öffentlicher Bibliotheken fällt. Im Verlauf der Arbeit wird Klingenbergs Referenzrahmen Informationskompetenz vorgestellt und Suchmaschinenkompetenz in selbigem verortet. Neben Theorie zur Schulungskonzeption werden suchmaschinentechnische Grundlagen erörtert, die zur Vermittlung von Suchmaschinenkompetenz vonnöten sind. Das Schulungsgrobkonzept umfasst drei Schulungen auf dem Referenzrahmen Informationskompetenz entnommenen Niveaustufen: A, B2 und C1, also Viertklässler, Zehntklässler und Erwachsene. Das Grobkonzept ist universell gestaltet und kann auch von kleinen Öffentlichen Bibliotheken mit geringem Veranstaltungsetat umgesetzt werden.
Die folgende medienpraktische Bachelorarbeit behandelt die Umsetzung einer multilingualen Website, die für eine deutsch- sowie englischsprachige Zielgruppe suchmaschinenoptimiert wurde. Als Grundlage dient die bereits bestehende Website des Kölner Künstlerkollektivs „CrossArts Cologne GbR“, die eine Zielgruppenausrichtung auf die Ebene der Bundesrepublik Deutschland sowie die der Europäischen Union hat. Die Website basiert auf dem Content-Management-System Wordpress.
Die Schwerpunkte der schriftlichen Arbeit liegen im Auflisten, Bewerten und Vergleichen der Wordpress-Plugins und Online-Tools, sowie der Dokumentation der praktischen Arbeit. Der Schwerpunkt der medienpraktischen Arbeit liegt in der Umsetzung bzw. Anwendung dieser Plugins und Tools, um das Ziel einer multilingualen suchmaschinenoptimierten Webseite zu erreichen. In den Bewertungen liegt der Fokus auf der Usability für die Suchenden bzw. Websitebesuchern und auf dem Erfolg der technischen Umsetzung.
Das Erreichen der Ziele behandelt diese Dokumentation im Praxistest und dem Fazit. Der gesamte Anhang mit Screenshots, Tabellen und Textdateien ist dem beigefügten Datenträger (CD-ROM) zu entnehmen.
Im Zuge ansteigender Datenmenge und der zunehmenden Anforderung, ein datengetriebenes Unternehmen zu werden, steigt auch die Komplexheit hinsichtlich der Datenintegration. Dabei gibt die Datenarchitektur stark vor, wie die Datenintegration erfolgt, doch gerade in diesem Umfeld hat sich in den letzten Jahren viel bewegt: Nach dem Data Warehouse kam der Data Lake und seit einigen Jahren wird verstärkt der Data Mesh diskutiert. Hier knüpft diese Arbeit mit einem multikriterielle Entscheidungsmodell an, das erarbeitet sowie zur Machbarkeitsanalyse exemplarisch an einem fiktiven Fallbeispiel appliziert wird. Dies schließt insbesondere eine fundierte und literaturgestützte Recherche der Architekturalternativen, der entscheidungskritischen Kriterien sowie der multikriteriellen Beschreibung der Alternativen ein.
Der Analytic Hierarchy Process ist dabei die Methode, mit der die Kriterien und Alternativen untereinander verglichen werden. Der Anwendung der Entscheidungshilfe liegt dabei ein fiktives Fallbeispiel eines Einzelhandel Unternehmens zugrunde. Das Unternehmen wird charakterisiert und die Kriterien untereinander, im Hinblick auf die drei Alternativen und bezogen auf das Fallbeispiel, bewertet.
Die Forschung ist sowohl akademisch als auch für Praktiker relevant und setzt eine bewährte Methode zur strukturierten Entscheidungsanalyse ein. Die Ergebnisse sind auf andere, insbesondere vergleichbare Problemstellungen übertragbar. Weitere Forschungsstränge können sich auf weitere Entscheidungsanalysemethoden beziehen und auch experimenteller Natur sein, die das gewichtete Entscheidungsmodell auf seine Validität prüfen können.
Das Ziel der vorliegenden Bachelorarbeit war es, die Verbindungen von Rechtspopulisten und Rechtsextremisten im Web zu prüfen. Dazu wurden zehn Abgeordnete der AfDBundestagsfraktion mit einer Auswahl von Mitarbeitenden analysiert. Es wurden dazu Ergebnisse in der Suchmaschine Google, Backlinks und Social Media Auftritte angesehen und ausgewertet. Die Ergebnisse können dazu dienen Rückschlüsse auf andere Fraktionen der AfD zu ziehen. Es fand eine Unterteilung in aktive und passive Verbindungen statt. Die Ergebnisse wurden dann auf Prozentzahlen umgerechnet. Dies ermöglichte eine Skalierung auf eine durchschnittliche AfD Landtagsfraktion. Es wurden sowohl aktive als auch passive Verbindungen nachgewiesen. Die Arbeit kommt zu dem Ergebnis, dass es eine Vernetzung zwischen Rechtspopulisten und Rechtsextremisten gibt. Sie kommt auch zu dem Ergebnis, dass sich diese Vernetzung im Web aufzeigen lässt. Sie zeigt jedoch auch, dass es viele Daten gibt die nicht erhoben werden können und es viele Abgeordnete und Mitarbeiter gibt die keine solchen Verbindungen besitzen.
Die Messung des regionalen Wohlstands ist aufgrund der zunehmenden Bedrohungen für die Ernährungssicherheit ein wichtiges Instrument bei der Sicherung des Lebensunterhaltes. So dienen diese unter anderem für die Ausrichtung und Organisation staatlicher und nicht staatlicher Leistungen und Regierungsentscheidungen. Diesen Messungen liegen meist Verbrauchs- und Vermögensbefragungen, wie die des DHS-Programms zugrunde, welche kosten- und zeitaufwendig sind.
Als Lösungsansatz werden im Rahmen dieser Arbeit Machine Learning Modelle entwickelt, die anhand von Satellitendaten und Haushaltsumfragen des DHS-Programms einen Asset Wealth Index für afrikanische Regionen im und rund um das Horn von Afrika vorhersagen. Dazu wird anhand der Umfragedaten mittels einer Hauptkomponentenanalyse der entsprechende Asset Wealth pro Haushalt anhand der Vermögensgegenstände ermittelt. Überdies werden die Geo-Daten in Form von Sentinel-2 und VIIRS-Bildern der Position der Haushalte für die entsprechenden Jahre beschafft. Nach einer statistischen Auswertung der Labeldaten erfolgt die Implementation verschiedener Modelle, nach städtischen und ländlichen Regionen getrennt, mit verschiedenen Eingabeformaten. Nachdem bewiesen wird, dass ein Verknüpfung der Labeldaten vor 2015 mit Sentinel-2-Bildern ab Mitte 2015 sinnvoll ist, wird pro Art der Region jeweils ein Modell ausschließlich auf den Bildern eines der Satelliten sowie auf Bildern aus einer Kombination beider Satelliten trainiert. Dabei zeigen die Modelle in ihren Prognosen eine geringere Varianz als die tatsächlichen Daten, sodass die Differenzierung des Asset Wealth zwischen den Regionen zwar in Ansätzen korrekt, aber deutlich schwächer ausgeprägt ist, als in der Realität. Zudem zeigt sich, dass die Vorhersage ländlicher Regionen vielversprechendere Ergebnisse liefert, als die städtischer Regionen. Die abschließende Prognose des Asset Wealth für Mosambik zeigt nahezu identische Werte zu den im Training und in der Evaluation verwendeten Mosambik-Daten anderer Jahre.
Die vorliegende Bachelorarbeit beschreibt Konzeption, Design und Umsetzung der Website für den neuen Forschungsschwerpunkt Knowledge-Discovery an der TH Köln. Die Website soll der Außenrepräsentation des Forschungsschwerpunkts dienen. Der Forschungsschwerpunkt vereint die Fachbereiche Data Science, Information Retrieval und Natural Language Processing und soll die Synergien zwischen den Fachbereichen sowie deren Professoren bestärken. Der Webauftritt soll unter anderem Kooperationen mit anderen Forschern begünstigen.
Vor der Planung und Umsetzung der Website wurden die Anforderungen an die geplante Website aufgenommen. Neben dem Austausch mit den Auftraggebern wurden Anforderungen auch über Zielgruppenanalyse und eine Best Practice Analyse ermittelt.
Von den Auftraggebern ist eine Umsetzung mit GitHub Pages angedacht. Die Umsetzungsmöglichkeiten der Anforderungen mit GitHub Pages sowie mit dem Content Management System WordPress werden im Rahmen der Arbeit geprüft und miteinander verglichen. Die Arbeit behandelt die Frage, ob und wie sich die Website des Schwerpunkts als statische Site mit GitHub Pages umsetzen lässt.
Die Konzeption umfasst die auf der Website vorzustellenden Inhalte, Menüstruktur und -design, Struktur und Inhalt der geplanten Seiten, die stilistische Ausgestaltung der Website und die Planung besonderer Website-Funktionalitäten. Die schlussendliche Umsetzung erfolgt mit einer Kombination aus GitHub Pages und dem im Produkt integrierten Static Site Generator Jekyll.