Refine
Year of publication
- 2019 (37) (remove)
Document Type
- Bachelor Thesis (22)
- Master's Thesis (15)
Language
- German (37)
Has Fulltext
- no (37) (remove)
Keywords
- Social Media (5)
- Forschungsdatenmanagement (2)
- Informationskompetenz (2)
- Kundenbindung (2)
- Rechtspopulismus (2)
- Akkulturation (1)
- Alternative für Deutschland (1)
- Begegnung (1)
- Beratung (1)
- Bibliotheksangebote (1)
Cloud-Gaming entwickelt sich zu einer realistischen Alternative zum herkömmlichen Gaming-Computer. In Deutschland gibt es derzeit verschiedene Anbieter solcher Dienste. Diese Arbeit analysiert drei dieser Anbieter; NVIDIA mit GeForce NOW, Shadow von Blade und Parsec Cloud Gaming. Die Anbietermodelle werden mit Hilfe des Business Modell Canvas analysiert, wobei auch die auftretenden Netzwerkeffekte berücksichtigt werden. Die Darstellung der Ergebnisse erfolgt in einem tabellarischen Vergleich, welcher anschließend diskutiert wird. Es stellt sich heraus, dass alle analysierten Anbieter ein marktfähiges Konzept aufweisen. Außerdem können konkrete Handlungsempfehlungen für bestimmte Benutzergruppe ausgesprochen werden. GeForce NOW eignet sich hierbei ideal für Personen, welche Cloud-Gaming testen möchten und hierbei keine weiteren Funktionen, außer dem Spielen von Computerspielen, voraussetzen. Shadow wird als Premiumprodukt auf dem Cloud-Gaming-Markt definiert, da hier eine unkomplizierte, langfristige Nutzung eines Cloud-Gaming-Computers möglich ist. Allerdings hat Shadow auch das teuerste Grundabonnement. Parsec zeichnet sich durch ein flexibleres Abonnement aus und ist daher ideal für Personen geeignet, welche nur gelegentlich, aber konstant auf einen Cloud-Gaming-Computer mit erweiterten Funktionen zugreifen möchten. Durch die einfache Kommunikation und Verbindung mit anderen Nutzern von Parsec, profitieren diese besonders stark von einem wachsenden Netzwerk.
Am 15. April 2019 stimmte das EU-Parlament für die Umsetzung der Richtlinie über das Urheberrecht im digitalen Binnenmarkt. Die Richtlinie gilt als besonders umstritten, vor allem aufgrund von Art. 17, der besagt, dass zukünftig Plattformen für Urheberrechtsverstöße der Nutzer haften müssen. Schon seit dem Entwurf der Richtlinie 2016 gab es massive Gegenstimmen und sogar Demonstrationen gegen ein solches Vorhaben. Denn laut der Richtlinie soll eine Vorabprüfung von Inhalten auf sozialen Plattformen erfolgen, was technisch nur mit einem sogenannten Upload-Filter umsetzbar ist. Durch den Einsatz einer solchen Filtertechnologie fürchten viele eine Zensur und Einschränkung der Meinungsfreiheit im Internet.
Diese Bachelorarbeit beschäftigt sich damit, warum genau die Richtlinie so umstritten, aber gleichzeitig so wichtig ist und zeigt die Chancen und Risiken auf, die sich durch die Richtlinie für die unterschiedlichen Interessengruppen bieten.
Die vorliegende Bachelorthesis befasst sich mit der Entwicklung und Umsetzung eines Qualitätsmanagementsystems zur Analyse und Gewährleistung der redaktionellen Qualität von digitalen Stellenanzeigen des Online-Stellenmarktes jobvector. Der theoretische Teil beschreibt die Qualitätsfaktoren in digitalen Informationssystemen sowie die Grundlagen von Software-Qualitätsmanagement und Qualitätssicherungsmaßnahmen und dient als Basis für die Entwicklung und Umsetzung eines Systemtools für das redaktionelle Qualitätsmanagement. Der praktische Teil umfasst die Entwicklung einer kriteriengeleiteten Qualitätsanalyse auf Grundlage redaktioneller Qualitätsfaktoren. Das entwickelte Systemtool zur Erfassung der redaktionellen Qualität sowie die Weiterentwicklung des Content-Management-Systems führen zu einer Effizienzsteigerung der redaktionellen Arbeit und ermöglichen eine Reduzierung der Werbeausgaben für nicht optimierte Stellenanzeigen.
Durch das in den letzten Jahren entstandene Angebot an Online-Quellen fällt es den Redakteur*innen deutlich leichter für eigene Aufträge und Aufgaben zu recherchieren als in der Vergangenheit. Dies führt dazu, dass Recherchedienste wie die Abteilung Dokumentation und Archive von Deutschlandradio weniger genutzt werden.
Durch eine Umfrage in den Redaktionen, sowie Interviews der Beschäftigten von Dokumentation und Archive werden die entstandenen Schwierigkeiten genauer erläutert und zusammengefasst.
Die genannte Befragung lehnt dabei an eine andere, ähnliche Umfrage aus dem Jahre 2010 an, in der bereits die Zufriedenheit der Redakteur*innen mit den Angeboten des Archiv-Service (einem Unterbereich von Dokumentation und Archive) eruiert wurde.
Anhand dieser Informationen können mögliche Maßnahmen ermittelt werden, die zu einer besseren Zusammenarbeit führen können und die verschiedenen Angebote wieder neu zu entdecken.
Generell ist aus Kosten- und Zeitgründen von einer klassischen Marketingstrategie abzusehen. Es werden bereits verschiedene Kanäle zur Vermittlung der Services genutzt. Die darin enthaltenen Informationen sollen in Zukunft genauer erläutert werden und direkter dem Endnutzer zur Verfügung gestellt werden.
Die FAIR-Prinzipien setzen sich seit ihrer Formulierung im Jahr 2016 immer mehr durch. Ihr Ziel ist, die Nachnutzbarkeit von Forschungsdaten sicherzustellen, allerdings sind es nur Leitlinien, die fachlich ausgelegt werden müssen. Wissenschaftliche digitale Editionen, die hier als Daten-Community verstanden werden, kämpfen vermehrt mit dem Problem der Nachhaltigkeit. Es wird daher untersucht, inwiefern die FAIR-Prinzipien als Leitlinien für digitale Editionen herangezogen werden können. Hierbei werden sowohl die zugrunde liegenden Daten als auch die Software in der Analyse berücksichtigt. Es zeigt sich, dass alle Facetten der Prinzipien bereits unter anderem Namen diskutiert werden, die FAIR-Prinzipien dennoch als Leitlinien für zukünftige Entwicklungen produktiv herangezogen werden können.
Die vorliegende Bachelorarbeit befasst sich mit der Frage, welche Kriterien einen verlässlichen Experten im Wissenschaftsjournalismus auszeichnen. Dabei orientiert sie sich an der Arbeit des Science Media Centers Germany und analysiert dessen Expertenkonzept. Ziel ist es, Kriterien zu ermitteln, die Rückschlüsse auf die Verlässlichkeit von Experten zulassen und bei der Einordnung durch Wissenschaftsjournalisten oder Laien helfen.
Dazu wurde zunächst der interne Kriterienkatalog des Science Media Centers ausgewertet. Anschließend erfolgte eine Literaturanalyse zum Thema Experten, mit besonderem Fokus auf die Anforderungen an Experten im Wissenschaftsjournalismus. Um die Charakterisierung von Experten zu komplementieren, wurden qualitative Interviews mit Experten und anderen Interessengruppen durchgeführt.
Folgende Schlussfolgerung ergibt sich nach der Auswertung der Quellen: Zu den wichtigsten Kriterien für verlässliche Experten im Wissenschaftsjournalismus gehört eine herausragende Fachkompetenz, Vermittlungsfähigkeit und Verfügbarkeit. Darüber hinaus sind noch weitere Indikatoren ermittelt worden, die den Kriterienkatalog des Science Media Centers ergänzen.