Refine
Year of publication
- 2019 (33) (remove)
Document Type
- Bachelor Thesis (33) (remove)
Language
- German (33)
Keywords
- Social Media (6)
- Rechtspopulismus (2)
- Weblog (2)
- WordPress (2)
- Akkulturation (1)
- Alexandra Elbakyan (1)
- Alternative für Deutschland (1)
- Anfrage (1)
- Annäherung (1)
- Begegnung (1)
Die Popularität der Sportart Darts in der Gesellschaft hat in den letzten 25 Jahren stark zugenommen.
Die vorliegende Bachelorarbeit betrachtet Erfolgsgrößen, die zu diesem positiven
Wachstum und der andauernden Professionalisierung des Dartsports beigetragen haben.
Dabei werden, mit Bezugnahme auf Netzwerkeffekte, Kausalzusammenhänge zwischen
den relevantesten beteiligten Stakeholdern erarbeitet.
Zunächst wird sich dem Forschungsthema über theoretische Grundlagen zu den Themen
Sport im Allgemeinen und Netzwerkeffekte angenähert. Im Anschluss werden relevante
Begrifflichkeiten zum Thema Darts geklärt und der Entwicklungsprozess der Sportart von
einer Kneipenbeschäftigung zu einer kommerziellen Mediensportart erläutert. Die anschließende
Darstellung relevanter Stakeholder, wie beispielsweise Medien oder Verbände, vertieft
die Thematik und geht separat auf die Bedürfnisse der jeweiligen Interessengruppen
ein. Auch bei der Einzelbetrachtung wird die Theorie der Netzwerkeffekte an verschiedenen
Stellen aufgegriffen und auf die Sportart Darts angewendet. Ergänzend zu dieser Betrachtung
relevanter Stakeholder werden thematisch korrespondierende Experteninterviews
durchgeführt. Nach Transkription und induktiver Kategorienbildung werden die Resultate
der leitfadengestützten Interviews zum Ende der Arbeit in einem entsprechenden
Rahmen präsentiert. Aus den Ergebnissen der Sekundärforschung und der Empirie, werden
die Forschungsergebnisse zum Abschluss der vorliegenden Arbeit in Form eines Fazits
zusammengetragen.
State of Art - Web Scraping
(2019)
Die vorliegende Bachelorarbeit hat zum Ziel, dem allgemeinen Leser die aktuell genutzten Methoden des Web Scraping zur Extraktion von relevanten Daten aus vorher definierten Webseiten darzustellen und miteinander zu vergleichen.
Dafür wurde zunächst der Forschungsgegenstand in seiner Art und Funktionsweise definiert und gegen andere Informationsextraktionsverfahren abgegrenzt. Anschließend galt es grundlegende, aktuelle und innovative Techniken des Web Scraping anhand von ausgewählten Beispielen vorzustellen. Anhand von drei Kategorisierungsansätzen (Glez-Pena, Ferrara, Chang) wurden die verschiedenen Ebenen, auf denen ein Web Scraper zu betrachten ist, herausgearbeitet und in einer Gegenüberstellung der Ansätze auf Parallelen und Gegensätze dieser Kategorien überprüft.
Web Scraping bietet eine probate Methode, relevante Inhalte aus dem World Wide Web ohne erforderlichen Zugriff auf den jeweiligen Webserver der Zielseite zu extrahieren. Dabei führt die zunehmende Entwicklung von Web Scrapern hin zu einer benutzerfreundlichen visuellen Umgebung und einfachen Bedienung dazu, dass die Tools sich einem immer breiteren Anwenderpublikum öffnen.
Die vorliegende Bachelorarbeit befasst sich mit der Frage, welche Kriterien einen verlässlichen Experten im Wissenschaftsjournalismus auszeichnen. Dabei orientiert sie sich an der Arbeit des Science Media Centers Germany und analysiert dessen Expertenkonzept. Ziel ist es, Kriterien zu ermitteln, die Rückschlüsse auf die Verlässlichkeit von Experten zulassen und bei der Einordnung durch Wissenschaftsjournalisten oder Laien helfen.
Dazu wurde zunächst der interne Kriterienkatalog des Science Media Centers ausgewertet. Anschließend erfolgte eine Literaturanalyse zum Thema Experten, mit besonderem Fokus auf die Anforderungen an Experten im Wissenschaftsjournalismus. Um die Charakterisierung von Experten zu komplementieren, wurden qualitative Interviews mit Experten und anderen Interessengruppen durchgeführt.
Folgende Schlussfolgerung ergibt sich nach der Auswertung der Quellen: Zu den wichtigsten Kriterien für verlässliche Experten im Wissenschaftsjournalismus gehört eine herausragende Fachkompetenz, Vermittlungsfähigkeit und Verfügbarkeit. Darüber hinaus sind noch weitere Indikatoren ermittelt worden, die den Kriterienkatalog des Science Media Centers ergänzen.
Durch den demographischen Wandel kommt es immer mehr zu einer Verschiebung des durchschnittlichen Lebensalters nach oben. Damit wächst ebenfalls die Anzahl der Demenzkranken stetig weiter, da das Alter in diesem Fall zu den größten Risikofaktoren zählt. Zudem sind Frauen einer höheren Gefahr ausgesetzt als Männer, an Demenz bzw. Alzheimer zu erkranken, da diese oft ein höheres Lebensalter erreichen. Da es bisher keine Heilung für die Krankheit Demenz gibt und auf weiten Gebieten noch nicht aus-reichend geforscht wurde, ist es umso wichtiger, den speziellen Bedürfnissen und Anforderungen dieser Zielgruppe gerecht zu werden. Dies gilt nicht nur für die Altenheime und Pflegeeinrichtungen, in denen dementielle Menschen betreut werden, sondern auch im Hinblick auf Bibliotheken und deren Angebot für Demenzkranke. Auf diesem Weg können Bibliotheken zu einer besseren Lebensqualität dieser Zielgruppe beitragen und sich als nützliche Kooperationspartner für Pflegeeinrichtungen und andere Institutionen erweisen. In der vorliegenden Literaturarbeit werden aus den in anderen Bereichen angebotenen Formaten allgemeine Kriterien für die Arbeit mit Demenz-kranken abgeleitet. Diese führen zu Empfehlungen weiterer möglicher Konzepte und Strategien für die Bibliotheksarbeit mit dieser Zielgruppe. Das wichtigste Ergebnis dieser Literaturauswertung und der daraus resultierenden Anregungen beinhaltet die Forderung nach der verstärkten Ausrichtung der bereits vorhandenen Angebote auf die Bibliotheksnutzer und weniger auf den Bibliotheksbestand. Durch zusätzliche Formate mit dieser Zielausprägung kann ein weitläufig angelegtes und nachhaltiges Konzept für Demenzerkrankte und ihre Angehörigen in den jeweiligen Bibliotheken entstehen.
Das Ziel dieser Bachelorarbeit ist es, die Unterschiede zwischen dem MARC-XML-Format und einem Solr kompatiblen XML-Format zu analysieren, um die Daten einer DNB-Testkollektion für ein Retrievaltest-Projekt der TH Köln mit der Software trec_eval auswerten zu können. Dazu wird die Datenstruktur der Dokumente der Testkollektion im MARC-XML-Format auf die für den Test relevanten Inhalte reduziert. Es wird dargestellt, wie diese Datenstruktur an das Zielformat XML angepasst und konvertiert wird, um einen Retrievaltest durchführen zu können. Die nach einer Datenkonvertierung entstehenden Probleme sollen durch das Erstellen einer Konkordanz abgebildet werden. Exemplarisch werden die Kategorien innerhalb der Dokumente der Testkollektion untersucht, die maschinell und intellektuell Erschlossene Metadaten enthalten. Abschließend wird darauf hingewiesen, welche Auswirkungen fehlerhafte Kategorieninhalte auf einen Retrievaltest haben können. Ziel soll es sein eine Empfehlung dahingehend abzugeben, wie die Testkollektion den Qualitätsanforderungen des TH-Projekts entsprechend verbessert werden kann, um eine Evaluation der DNB-Sacherschließungspraxis zu ermöglichen.
Durch das in den letzten Jahren entstandene Angebot an Online-Quellen fällt es den Redakteur*innen deutlich leichter für eigene Aufträge und Aufgaben zu recherchieren als in der Vergangenheit. Dies führt dazu, dass Recherchedienste wie die Abteilung Dokumentation und Archive von Deutschlandradio weniger genutzt werden.
Durch eine Umfrage in den Redaktionen, sowie Interviews der Beschäftigten von Dokumentation und Archive werden die entstandenen Schwierigkeiten genauer erläutert und zusammengefasst.
Die genannte Befragung lehnt dabei an eine andere, ähnliche Umfrage aus dem Jahre 2010 an, in der bereits die Zufriedenheit der Redakteur*innen mit den Angeboten des Archiv-Service (einem Unterbereich von Dokumentation und Archive) eruiert wurde.
Anhand dieser Informationen können mögliche Maßnahmen ermittelt werden, die zu einer besseren Zusammenarbeit führen können und die verschiedenen Angebote wieder neu zu entdecken.
Generell ist aus Kosten- und Zeitgründen von einer klassischen Marketingstrategie abzusehen. Es werden bereits verschiedene Kanäle zur Vermittlung der Services genutzt. Die darin enthaltenen Informationen sollen in Zukunft genauer erläutert werden und direkter dem Endnutzer zur Verfügung gestellt werden.
Die vorliegende Bachelorarbeit beschäftigt sich mit dem Thema des Predatory Publishing, vertiefend mit Predatory Journals. Ziel dieser Arbeit ist es, ein grundlegendes Beratungsangebot für wissenschaftliche Bibliotheken zu konzipieren, welches Forscher über das Thema informiert, Strategien zur Erkennung von Predatory Journals aufzeigt und so dazu beträgt, das Publizieren in unseriösen Zeitschriften zu vermeiden. Dazu wird die Frage gestellt: Inwieweit sind Predatory Journals ein Thema für wissenschaftliche Bibliotheken? Um diese Frage zu beantworten, wird zunächst ein theoretischer Überblick über die Thematik gegeben, in welchem darauf eingegangen wird, wie unseriöse Zeitschriften als Reaktion auf investigative journalistische Berichterstattung in der Öffentlichkeit an Bekanntheit erlangten sowie auf die darauffolgende Resonanz aus dem akademischen Umfeld. Zudem werden die Problematik von Predatory Journals sowie ihre Merkmale und Charakteristik erläutert und daneben die
Methoden und Absichten von Predatory Publishern. Anschließend wird auf Rolle der Bibliotheken in Bezug zu diesem Thema eingegangen. Hier werden die Risiken für Wissenschaftler aufgewiesen und inwiefern Bibliothekare sich aktiv dem Problem der Predatory Journals widmen können. Um einen Einblick zu gewinnen, ob und in welchem Umfang die Thematik bereits in deutschen Universitätsbibliotheken angekommen ist, wird eine Analyse der Angebote auf den Webauftritten eben jener Bibliotheken der Entwicklung des grundlegenden Konzepts eines Beratungsangebotes für Wissenschaftler vorangestellt. Die Ergebnisse der Arbeit zeigen, dass das Thema noch nicht umfassend in den Universitätsbibliotheken angekommen ist. Zwar werden oftmals Informationen zu der Problematik bereitgestellt, häufig jedoch an sehr versteckter Stelle, und es existieren nur vereinzelt explizite Angebote, wie z.B. Workshops. Diesbezüglich besteht eindeutig Handlungsbedarf, damit ein Bewusstsein für die Problematik der Predatory Journals generiert wird.
Die vorliegende wissenschaftliche Arbeit stellt einen Vergleich zwischen dem klassischen, linearen Fernsehen und dem Video-on-Demand-Markt her, und gibt zusätzlich Aufschluss über Historie und Geschäftsmodelle. Ziel dieser Forschungsarbeit ist die Analyse der Zukunftsfähigkeit des klassischen, linearen Fernsehens in Deutschland unter Berücksichtigung der Einflüsse des Video-on-Demand-Marktes durchzuführen, um abschließend eine Tendenz für die Weiterentwicklung und das Bestehen oder Nichtbestehen dieses Unterhaltungskonzeptes abzugeben. Dafür wurden in erster Linie Studien, Presseberichte sowie weitere aktuelle Sekundärquellen, die sich mit dem Thema federführend auseinandersetzen, verwendet.
Cloud-Gaming entwickelt sich zu einer realistischen Alternative zum herkömmlichen Gaming-Computer. In Deutschland gibt es derzeit verschiedene Anbieter solcher Dienste. Diese Arbeit analysiert drei dieser Anbieter; NVIDIA mit GeForce NOW, Shadow von Blade und Parsec Cloud Gaming. Die Anbietermodelle werden mit Hilfe des Business Modell Canvas analysiert, wobei auch die auftretenden Netzwerkeffekte berücksichtigt werden. Die Darstellung der Ergebnisse erfolgt in einem tabellarischen Vergleich, welcher anschließend diskutiert wird. Es stellt sich heraus, dass alle analysierten Anbieter ein marktfähiges Konzept aufweisen. Außerdem können konkrete Handlungsempfehlungen für bestimmte Benutzergruppe ausgesprochen werden. GeForce NOW eignet sich hierbei ideal für Personen, welche Cloud-Gaming testen möchten und hierbei keine weiteren Funktionen, außer dem Spielen von Computerspielen, voraussetzen. Shadow wird als Premiumprodukt auf dem Cloud-Gaming-Markt definiert, da hier eine unkomplizierte, langfristige Nutzung eines Cloud-Gaming-Computers möglich ist. Allerdings hat Shadow auch das teuerste Grundabonnement. Parsec zeichnet sich durch ein flexibleres Abonnement aus und ist daher ideal für Personen geeignet, welche nur gelegentlich, aber konstant auf einen Cloud-Gaming-Computer mit erweiterten Funktionen zugreifen möchten. Durch die einfache Kommunikation und Verbindung mit anderen Nutzern von Parsec, profitieren diese besonders stark von einem wachsenden Netzwerk.
Query Suggestion mit Siri
(2019)
Suchanfragen und automatische Vorschläge zu diesen, wenn der Nutzer die Anfrage gerade noch eintippt, gehören heutzutage zum Standard. Das nicht nur bei Suchen im Internet, sondern auch mithilfe von integrierten Assistenten an PC oder auf Mobilgeräten, wie Smartphones oder Tablets. Einer dieser persönlichen Assistenten ist Siri, eine Software auf iOS-Geräten des Technologiekonzerns Apple. Siri ist hauptsächlich bekannt dafür, als Sprachassistent auf gesprochene Anfragen zu reagieren. Allerdings bietet Siri auch eine Suchfunktion auf dem Homescreen des Geräts an, in die Suchen eingetippt werden können. Auch hier werden Vorschläge gemacht, die die Eingabe während des Schreibens automatisch vervollständigen. Dabei ist aber nicht klar, woher diese stammen. Gut denkbar ist eine Kooperation mit einem etablierten Anbieter einer Web-suchmaschinen. Aber klare Aussagen, von Apple selbst, finden sich nicht. Lässt sich dies eventuell auf experimentellem Weg ermitteln? Um sich der Lösung dieser Fragestellung zu nähern, stelle diese Bachelorarbeit die Umsetzung eines Versuchsaufbaus dar, bei dem über einen vierwöchigen Zeitraum definierte Suchanfragen an die Web-suchmaschinen Google, Bing, DuckDuckGo und an die Siri-Suche gestellt wurden. Durch Analysemethoden, wie unter anderem Rank-biased overlap (RBO), sollten so Gemeinsamkeiten ermittelt werden, die gegebenenfalls auf einen konkreten Partner schließen lassen. Zwar zeigten die Vergleichsmethoden durchaus Unterschiede auf, ein klares Ergebnis in Bezug auf eine der betrachteten Suchmaschinen, konnte allerdings nicht erzielt werden.
Indigene Bevölkerungsgruppen sind in vielen Ländern der Welt nach wie vor nicht gut in die Gesellschaft integriert. Diese Arbeit soll die integrative Bibliotheksarbeit für indigene Bevölkerungsgruppen beleuchten und Praxisbeispiele integrativer Bibliotheksarbeit in Kanada und Australien bezüglich verschiedener bibliothekarischer Tätigkeitsfelder analysieren und miteinander vergleichen. Auch die kulturelle Integration wird berücksichtigt. Aufbauend auf diesen Analyseergebnissen werden Empfehlungen für die Konzipierung integrativer Bibliotheksarbeit für indigene Bevölkerungsgruppen gegeben.
Die Sonnenscheinpolitik des südkoreanischen Präsidenten Kim Dae-jung war der erste bedeutende Schritt im Annäherungsprozess zwischen Nord- und Südkorea, die seit dem zweiten Weltkrieg entlang einer Demarkationslinie getrennt sind. Mit seiner Vision eines vereinten Koreas trat Kim Dae-jung 1998 das Amt des Präsidenten an und suchte beharrlich den Dialog mit dem Bruderstaat. Sein Ansatz und dessen Auswirkungen positiver und negativer Art blieben im erst kurz zuvor wiedervereinten Deutschland nicht unkommentiert. Die vorliegende Arbeit untersucht in einer qualitativen Inhaltsanalyse Medien-Frames zur Sonnenscheinpolitik in den Artikeln der beiden Tageszeitungen Süddeutsche Zeitung und Frankfurter Allgemeine Zeitung, die zwischen dem Gipfeltreffen im Juni 2000 und den Terroranschlägen am 11. September 2001 erschienen sind. Während sich zu Beginn der Amtszeit Kim Dae-jungs beide Zeitungen optimistisch und unterstützend über die Sonnenscheinpolitik und ihrem Potenzial äußern, spaltet sich die Kommentierung mit George W. Bushs Amtsantritt als Präsident der USA und zunehmender innerkoreanischer Kritik deutlich. Die als konservativ geltende Frankfurter Allgemeine Zeitung tendiert dazu, die Kritik der konservativen Opposition sowie Bushs krasse Abwehrhaltung gegenüber Nordkorea zu unterstützen. Die Süddeutsche Zeitung dagegen weicht zu keinem Zeitpunkt von der solidarischen Haltung gegenüber Kim Dae-jung und seiner Politik ab. Diese Befunde werden auch in den Untersuchungsergebnissen deutlich. Die in 62 Artikeln gefundenen 164 Frames wurden mittels Cluster-Analyse kategorisiert. Dabei sind die dominantesten Cluster in beiden Medien „Die Sonnenscheinpolitik von Kim-Dae-jung fördert die innerkoreanische Annäherung erfolgreich“ und „Die isolierte Blackbox ‚Nordkorea‘ zeigt Profil / Charakter“. An dritter Stelle steht bei der Süddeutschen Zeitung das Cluster „Anti-Bush / Pro-Clinton / Dominanz Amerika (-)“. Die Frankfurter Allgemeine Zeitung dagegen weist zahlreiche kritische Frames (positive wie negative) auf, die dem „Anti-Opposition/ (Anti-)Kritik“-Cluster zugeordnet wurden. Darüber hinaus etablierte die Frankfurter Allgemeine Zeitung in ihrer Berichterstattung zwei weitere Cluster, die in der Süddeutschen Zeitung vollkommen unerwähnt blieben: „Anti-Kim Dae-jung / Anti-Sonnenscheinpolitik“ und „ProBush / Amerikas Dominanz (+)“.
Schattenbibliotheken wie Sci-Hub und Library Genesis bieten Zugriff auf wissenschaftliche Volltexte aus nahezu allen akademischen Disziplinen. Sie agieren rechtswidrig, in dem sie die Bezahlschranken der Verlage umgehen und Dokumente in ihren eigenen Datenbanken speichern. Sie können als eine der Auswirkungen auf die „Zeitschriftenkrise" der letzten Jahrzehnte gesehen werden. Diese Bachelorarbeit befasst sich in Form einer Literaturrecherche mit diesem noch relativ jungen Phänomen und setzt einen besonderen Fokus auf Sci-Hub, als der meist genutzten Schattenbibliothek mit der breitesten Abdeckungsrate wissenschaftlicher Literatur. Es zeigt sich, dass Schattenbibliotheken sowohl von Wissenschaftlern und Studenten aus wirtschaftlich schwächeren Regionen der Erde als auch aus eigentlich lizenzstarken Ländern mit hoher Verfügbarkeit wissenschaftlicher Literatur genutzt werden. Bibliotheken sind als Bindeglied zwischen den Wissenschaftsverlagen und den Nutzern besonders von den Auswirkungen der Schattenbibliotheken betroffen. Während sie auf der einen Seite von einer besseren Verhandlungsposition gegenüber Verlagen profitieren könnten, müssen sie auf der anderen Seite mit den illegalen Datenbanken konkurrieren. Statt sich auf eine rein ethische Herangehensweise einzulassen oder Schattenbibliotheken zu einem Tabu-Thema werden zu lassen, sollten sie sich auf ihre Stärken konzentrieren. Eine klare und offene interne und externe Kommunikation über Sci-Hub und Co. ist dabei ebenso von Bedeutung, wie das Vorantreiben der Open-Access-Bewegung sowie eine Orientierung hin zu personalisierten Nutzerdiensten und der Vermittlung von Informationskompetenz.
Die vorliegende Bachelorarbeit beschreibt die Konzeption und anschließende medienpraktische Umsetzung des persönlichen Online-Blogs www.thegreenie.eu zum Thema Nachhaltigkeit und einem “Low Impact”-Leben. Dieser bietet aufbereitete Informationen und Handlungstipps für einen nachhaltigeren Lebensstil. Die Konzeption umfasst die Navigationsstruktur, den Aufbau der Site und das Design. Auch die Blog-Inhalte und deren Produktion wurden konzeptionell ausgearbeitet und dokumentiert.
Die Konzeption basiert dabei auf einer Analyse potentieller Nutzer, dem Suchverhalten dieser und einer Benchmark-Analyse themenverwandter Websites. Die Umsetzung des Blogs erfolgte mit dem Content-Management-System Wordpress. Die Dokumentation der vorliegenden Arbeit beschreibt die Auswahl eines Themes und technische Einbindung des Blogs. Außerdem geht daraus hervor, wie der Blog durch integrierte Anpassungsmöglichkeiten im Theme, Plugins und Änderungen im Quellcode personalisiert und dem Zweck angepasst wurde.
Um Traffic zu generieren, wurde die Sichtbarkeit der Website durch Suchmaschinenoptimierung und die Einbindung sozialer Netzwerke erhöht. Die entsprechenden Maßnahmen sind ebenfalls in der Arbeit dokumentiert.
Die vorliegende Bachelorarbeit befasst sich mit der Analyse von Businessprozessen mittels Process Mining. Betrachtet werden sowohl theoretische Grundlagen, als auch die praktische Anwendung von Process Mining. In dieser Arbeit wird untersucht wie relevant der Themenbereich für eine Nutzung ist und welche Chancen und Herausforderungen ein Einsatz von Process Mining beinhaltet.
Wann sind digitale Informationsangebote der Bundesregierung als Rundfunk einzustufen? Die vorliegende Arbeit beschäftigt sich mit dieser Frage und stellt den wissenschaftlichen Untersuchungsstand hinsichtlich der rechtlich-normativen Grenzen regierungsamtlicher Öffentlichkeitsarbeit im Web und in Sozialen Medien zusammen. Davon ausgehend werden die theoretischen Gefahren einer zunehmenden staatlichen Selbstdarstellung im Netz herausgearbeitet und die grundsätzliche Aktualität des Rundfunkbegriffs und seiner formalen Kriterien kritisch hinterfragt. Die Basis hierfür bildet die Aufschlüsselung des verfassungsrechtlichen und des einfachgesetzlichen Rundfunkbegriffs und seiner konstituierenden Kriterien. Bei der anschließenden Begriffsabgrenzung zwischen Regierungs-PR, Staatsfunk, Propaganda und Wahl- bzw. Parteienwerbung wird deutlich, dass sich die Unterschiede zwischen legitimer staatlicher Öffentlichkeitsarbeit und verfassungswidriger, parteiergreifender Einwirkung nur im Einzelfall festmachen lassen. Eine zentrale Rolle nimmt das Presse- und Informationsamtes der Bundesregierung als ausführendes Organ staatlicher Öffentlichkeitsarbeit ein. Anhand der strukturellen Entwicklung, seines verfassungsmäßigen Auftrages und etwaiger rechtlicher Schranken wird sein nicht zu unterschätzendes Potenzial zur Beeinflussung der öffentlichen Meinungsbildung nachvollzogen. Die folgende Strukturanalyse ausgewählter Websites und Social-Media-Auftritte der Bundesregierung zeigt, dass die vielfältigen audiovisuellen Inhalte entweder aufgrund ihrer Nonlinearität oder der fehlenden Orientierung entlang eines Sendeplans in der Regel nicht als Rundfunk im einfachgesetzlichen Sinne einzustufen sind. Dieses Ergebnis wird vor dem Hintergrund des technologisch induzierten Medienwandels (politischer) Kommunikation diskutiert und durch die Medienanstalt Berlin Brandenburg als zuständige Aufsichtsbehörde rechtlich bestätigt. Zum Abschluss werden Herausforderungen und Chancen digitaler Öffentlichkeitsarbeit sowohl aus der Sicht der Bundesregierung als auch staatstheoretischer Perspektive aufgezeigt und ein Ausblick auf medienrechtliche Optimierungspotenziale sowie mögliche neue Konfliktfelder in der Zukunft gegeben.
Am 15. April 2019 stimmte das EU-Parlament für die Umsetzung der Richtlinie über das Urheberrecht im digitalen Binnenmarkt. Die Richtlinie gilt als besonders umstritten, vor allem aufgrund von Art. 17, der besagt, dass zukünftig Plattformen für Urheberrechtsverstöße der Nutzer haften müssen. Schon seit dem Entwurf der Richtlinie 2016 gab es massive Gegenstimmen und sogar Demonstrationen gegen ein solches Vorhaben. Denn laut der Richtlinie soll eine Vorabprüfung von Inhalten auf sozialen Plattformen erfolgen, was technisch nur mit einem sogenannten Upload-Filter umsetzbar ist. Durch den Einsatz einer solchen Filtertechnologie fürchten viele eine Zensur und Einschränkung der Meinungsfreiheit im Internet.
Diese Bachelorarbeit beschäftigt sich damit, warum genau die Richtlinie so umstritten, aber gleichzeitig so wichtig ist und zeigt die Chancen und Risiken auf, die sich durch die Richtlinie für die unterschiedlichen Interessengruppen bieten.
Die vorliegende Bachelorthesis befasst sich mit der Entwicklung und Umsetzung eines Qualitätsmanagementsystems zur Analyse und Gewährleistung der redaktionellen Qualität von digitalen Stellenanzeigen des Online-Stellenmarktes jobvector. Der theoretische Teil beschreibt die Qualitätsfaktoren in digitalen Informationssystemen sowie die Grundlagen von Software-Qualitätsmanagement und Qualitätssicherungsmaßnahmen und dient als Basis für die Entwicklung und Umsetzung eines Systemtools für das redaktionelle Qualitätsmanagement. Der praktische Teil umfasst die Entwicklung einer kriteriengeleiteten Qualitätsanalyse auf Grundlage redaktioneller Qualitätsfaktoren. Das entwickelte Systemtool zur Erfassung der redaktionellen Qualität sowie die Weiterentwicklung des Content-Management-Systems führen zu einer Effizienzsteigerung der redaktionellen Arbeit und ermöglichen eine Reduzierung der Werbeausgaben für nicht optimierte Stellenanzeigen.