Refine
Year of publication
- 2019 (37) (remove)
Document Type
- Bachelor Thesis (22)
- Master's Thesis (15)
Language
- German (37)
Has Fulltext
- no (37) (remove)
Keywords
- Social Media (5)
- Forschungsdatenmanagement (2)
- Informationskompetenz (2)
- Kundenbindung (2)
- Rechtspopulismus (2)
- Akkulturation (1)
- Alternative für Deutschland (1)
- Begegnung (1)
- Beratung (1)
- Bibliotheksangebote (1)
Die vorliegende Bachelorarbeit befasst sich mit der Frage, welche Kriterien einen verlässlichen Experten im Wissenschaftsjournalismus auszeichnen. Dabei orientiert sie sich an der Arbeit des Science Media Centers Germany und analysiert dessen Expertenkonzept. Ziel ist es, Kriterien zu ermitteln, die Rückschlüsse auf die Verlässlichkeit von Experten zulassen und bei der Einordnung durch Wissenschaftsjournalisten oder Laien helfen.
Dazu wurde zunächst der interne Kriterienkatalog des Science Media Centers ausgewertet. Anschließend erfolgte eine Literaturanalyse zum Thema Experten, mit besonderem Fokus auf die Anforderungen an Experten im Wissenschaftsjournalismus. Um die Charakterisierung von Experten zu komplementieren, wurden qualitative Interviews mit Experten und anderen Interessengruppen durchgeführt.
Folgende Schlussfolgerung ergibt sich nach der Auswertung der Quellen: Zu den wichtigsten Kriterien für verlässliche Experten im Wissenschaftsjournalismus gehört eine herausragende Fachkompetenz, Vermittlungsfähigkeit und Verfügbarkeit. Darüber hinaus sind noch weitere Indikatoren ermittelt worden, die den Kriterienkatalog des Science Media Centers ergänzen.
Die FAIR-Prinzipien setzen sich seit ihrer Formulierung im Jahr 2016 immer mehr durch. Ihr Ziel ist, die Nachnutzbarkeit von Forschungsdaten sicherzustellen, allerdings sind es nur Leitlinien, die fachlich ausgelegt werden müssen. Wissenschaftliche digitale Editionen, die hier als Daten-Community verstanden werden, kämpfen vermehrt mit dem Problem der Nachhaltigkeit. Es wird daher untersucht, inwiefern die FAIR-Prinzipien als Leitlinien für digitale Editionen herangezogen werden können. Hierbei werden sowohl die zugrunde liegenden Daten als auch die Software in der Analyse berücksichtigt. Es zeigt sich, dass alle Facetten der Prinzipien bereits unter anderem Namen diskutiert werden, die FAIR-Prinzipien dennoch als Leitlinien für zukünftige Entwicklungen produktiv herangezogen werden können.
Durch den demographischen Wandel kommt es immer mehr zu einer Verschiebung des durchschnittlichen Lebensalters nach oben. Damit wächst ebenfalls die Anzahl der Demenzkranken stetig weiter, da das Alter in diesem Fall zu den größten Risikofaktoren zählt. Zudem sind Frauen einer höheren Gefahr ausgesetzt als Männer, an Demenz bzw. Alzheimer zu erkranken, da diese oft ein höheres Lebensalter erreichen. Da es bisher keine Heilung für die Krankheit Demenz gibt und auf weiten Gebieten noch nicht aus-reichend geforscht wurde, ist es umso wichtiger, den speziellen Bedürfnissen und Anforderungen dieser Zielgruppe gerecht zu werden. Dies gilt nicht nur für die Altenheime und Pflegeeinrichtungen, in denen dementielle Menschen betreut werden, sondern auch im Hinblick auf Bibliotheken und deren Angebot für Demenzkranke. Auf diesem Weg können Bibliotheken zu einer besseren Lebensqualität dieser Zielgruppe beitragen und sich als nützliche Kooperationspartner für Pflegeeinrichtungen und andere Institutionen erweisen. In der vorliegenden Literaturarbeit werden aus den in anderen Bereichen angebotenen Formaten allgemeine Kriterien für die Arbeit mit Demenz-kranken abgeleitet. Diese führen zu Empfehlungen weiterer möglicher Konzepte und Strategien für die Bibliotheksarbeit mit dieser Zielgruppe. Das wichtigste Ergebnis dieser Literaturauswertung und der daraus resultierenden Anregungen beinhaltet die Forderung nach der verstärkten Ausrichtung der bereits vorhandenen Angebote auf die Bibliotheksnutzer und weniger auf den Bibliotheksbestand. Durch zusätzliche Formate mit dieser Zielausprägung kann ein weitläufig angelegtes und nachhaltiges Konzept für Demenzerkrankte und ihre Angehörigen in den jeweiligen Bibliotheken entstehen.
Interkulturelle Bibliotheksarbeit ist seit langem Teil der deutschen Bibliothekswelt. Es gibt
Interkulturelle und Internationale Bibliotheken. Doch was macht eine Bibliothek
international? Gibt es gewisse Kriterien, die eine Bibliothek erfüllen muss, um sich
Internationale Bibliothek zu nennen? Genau dieser Frage geht diese Untersuchung auf den
Grund. Durch die induktive Analyse der Internationalen Bibliothek in Dortmund und der
Interkulturellen Bibliothek und der Internationalen Kinderbibliothek in Duisburg wird ein Kriterienkatalog erstellt. Dieser Kriterienkatalog kann auf jede Bibliothek angewandt werden. Am Ende der Untersuchung ergibt sich eine Prozentzahl, die angibt, wie nah sich eine Bibliothek an der perfekten Internationalen Bibliothek befindet.
Das Ziel dieser Bachelorarbeit ist es, die Unterschiede zwischen dem MARC-XML-Format und einem Solr kompatiblen XML-Format zu analysieren, um die Daten einer DNB-Testkollektion für ein Retrievaltest-Projekt der TH Köln mit der Software trec_eval auswerten zu können. Dazu wird die Datenstruktur der Dokumente der Testkollektion im MARC-XML-Format auf die für den Test relevanten Inhalte reduziert. Es wird dargestellt, wie diese Datenstruktur an das Zielformat XML angepasst und konvertiert wird, um einen Retrievaltest durchführen zu können. Die nach einer Datenkonvertierung entstehenden Probleme sollen durch das Erstellen einer Konkordanz abgebildet werden. Exemplarisch werden die Kategorien innerhalb der Dokumente der Testkollektion untersucht, die maschinell und intellektuell Erschlossene Metadaten enthalten. Abschließend wird darauf hingewiesen, welche Auswirkungen fehlerhafte Kategorieninhalte auf einen Retrievaltest haben können. Ziel soll es sein eine Empfehlung dahingehend abzugeben, wie die Testkollektion den Qualitätsanforderungen des TH-Projekts entsprechend verbessert werden kann, um eine Evaluation der DNB-Sacherschließungspraxis zu ermöglichen.
Durch das in den letzten Jahren entstandene Angebot an Online-Quellen fällt es den Redakteur*innen deutlich leichter für eigene Aufträge und Aufgaben zu recherchieren als in der Vergangenheit. Dies führt dazu, dass Recherchedienste wie die Abteilung Dokumentation und Archive von Deutschlandradio weniger genutzt werden.
Durch eine Umfrage in den Redaktionen, sowie Interviews der Beschäftigten von Dokumentation und Archive werden die entstandenen Schwierigkeiten genauer erläutert und zusammengefasst.
Die genannte Befragung lehnt dabei an eine andere, ähnliche Umfrage aus dem Jahre 2010 an, in der bereits die Zufriedenheit der Redakteur*innen mit den Angeboten des Archiv-Service (einem Unterbereich von Dokumentation und Archive) eruiert wurde.
Anhand dieser Informationen können mögliche Maßnahmen ermittelt werden, die zu einer besseren Zusammenarbeit führen können und die verschiedenen Angebote wieder neu zu entdecken.
Generell ist aus Kosten- und Zeitgründen von einer klassischen Marketingstrategie abzusehen. Es werden bereits verschiedene Kanäle zur Vermittlung der Services genutzt. Die darin enthaltenen Informationen sollen in Zukunft genauer erläutert werden und direkter dem Endnutzer zur Verfügung gestellt werden.
Die vorliegende Bachelorarbeit beschäftigt sich mit dem Thema des Predatory Publishing, vertiefend mit Predatory Journals. Ziel dieser Arbeit ist es, ein grundlegendes Beratungsangebot für wissenschaftliche Bibliotheken zu konzipieren, welches Forscher über das Thema informiert, Strategien zur Erkennung von Predatory Journals aufzeigt und so dazu beträgt, das Publizieren in unseriösen Zeitschriften zu vermeiden. Dazu wird die Frage gestellt: Inwieweit sind Predatory Journals ein Thema für wissenschaftliche Bibliotheken? Um diese Frage zu beantworten, wird zunächst ein theoretischer Überblick über die Thematik gegeben, in welchem darauf eingegangen wird, wie unseriöse Zeitschriften als Reaktion auf investigative journalistische Berichterstattung in der Öffentlichkeit an Bekanntheit erlangten sowie auf die darauffolgende Resonanz aus dem akademischen Umfeld. Zudem werden die Problematik von Predatory Journals sowie ihre Merkmale und Charakteristik erläutert und daneben die
Methoden und Absichten von Predatory Publishern. Anschließend wird auf Rolle der Bibliotheken in Bezug zu diesem Thema eingegangen. Hier werden die Risiken für Wissenschaftler aufgewiesen und inwiefern Bibliothekare sich aktiv dem Problem der Predatory Journals widmen können. Um einen Einblick zu gewinnen, ob und in welchem Umfang die Thematik bereits in deutschen Universitätsbibliotheken angekommen ist, wird eine Analyse der Angebote auf den Webauftritten eben jener Bibliotheken der Entwicklung des grundlegenden Konzepts eines Beratungsangebotes für Wissenschaftler vorangestellt. Die Ergebnisse der Arbeit zeigen, dass das Thema noch nicht umfassend in den Universitätsbibliotheken angekommen ist. Zwar werden oftmals Informationen zu der Problematik bereitgestellt, häufig jedoch an sehr versteckter Stelle, und es existieren nur vereinzelt explizite Angebote, wie z.B. Workshops. Diesbezüglich besteht eindeutig Handlungsbedarf, damit ein Bewusstsein für die Problematik der Predatory Journals generiert wird.
Die vorliegende wissenschaftliche Arbeit stellt einen Vergleich zwischen dem klassischen, linearen Fernsehen und dem Video-on-Demand-Markt her, und gibt zusätzlich Aufschluss über Historie und Geschäftsmodelle. Ziel dieser Forschungsarbeit ist die Analyse der Zukunftsfähigkeit des klassischen, linearen Fernsehens in Deutschland unter Berücksichtigung der Einflüsse des Video-on-Demand-Marktes durchzuführen, um abschließend eine Tendenz für die Weiterentwicklung und das Bestehen oder Nichtbestehen dieses Unterhaltungskonzeptes abzugeben. Dafür wurden in erster Linie Studien, Presseberichte sowie weitere aktuelle Sekundärquellen, die sich mit dem Thema federführend auseinandersetzen, verwendet.
Cloud-Gaming entwickelt sich zu einer realistischen Alternative zum herkömmlichen Gaming-Computer. In Deutschland gibt es derzeit verschiedene Anbieter solcher Dienste. Diese Arbeit analysiert drei dieser Anbieter; NVIDIA mit GeForce NOW, Shadow von Blade und Parsec Cloud Gaming. Die Anbietermodelle werden mit Hilfe des Business Modell Canvas analysiert, wobei auch die auftretenden Netzwerkeffekte berücksichtigt werden. Die Darstellung der Ergebnisse erfolgt in einem tabellarischen Vergleich, welcher anschließend diskutiert wird. Es stellt sich heraus, dass alle analysierten Anbieter ein marktfähiges Konzept aufweisen. Außerdem können konkrete Handlungsempfehlungen für bestimmte Benutzergruppe ausgesprochen werden. GeForce NOW eignet sich hierbei ideal für Personen, welche Cloud-Gaming testen möchten und hierbei keine weiteren Funktionen, außer dem Spielen von Computerspielen, voraussetzen. Shadow wird als Premiumprodukt auf dem Cloud-Gaming-Markt definiert, da hier eine unkomplizierte, langfristige Nutzung eines Cloud-Gaming-Computers möglich ist. Allerdings hat Shadow auch das teuerste Grundabonnement. Parsec zeichnet sich durch ein flexibleres Abonnement aus und ist daher ideal für Personen geeignet, welche nur gelegentlich, aber konstant auf einen Cloud-Gaming-Computer mit erweiterten Funktionen zugreifen möchten. Durch die einfache Kommunikation und Verbindung mit anderen Nutzern von Parsec, profitieren diese besonders stark von einem wachsenden Netzwerk.
Indigene Bevölkerungsgruppen sind in vielen Ländern der Welt nach wie vor nicht gut in die Gesellschaft integriert. Diese Arbeit soll die integrative Bibliotheksarbeit für indigene Bevölkerungsgruppen beleuchten und Praxisbeispiele integrativer Bibliotheksarbeit in Kanada und Australien bezüglich verschiedener bibliothekarischer Tätigkeitsfelder analysieren und miteinander vergleichen. Auch die kulturelle Integration wird berücksichtigt. Aufbauend auf diesen Analyseergebnissen werden Empfehlungen für die Konzipierung integrativer Bibliotheksarbeit für indigene Bevölkerungsgruppen gegeben.
Der Auskunftsdienst ist eine Kernaufgabe für Bibliotheken und befindet sich durch die digitale Transformation in einem permanenten Veränderungsprozess. Wissenschaftliche Bibliotheken sollten sich klar zu einem professionellen Auskunftsdienst mit all seinen Facetten bekennen und vor allem ganzheitliche Konzepte entwickeln. Die vielfältigen Herausforderungen für die Weiterentwicklung dieser Dienstleistung verlangen eine proaktive Vorgehensweise von allen Beteiligten. Viele positive und erfolgsversprechende Ansätze im Auskunftsdienst konnten bisher nicht flächendeckend verwirklicht werden. Der bibliothekarische Auskunftsdienst muss sich stärker an den Bibliothekskunden orientieren und individuelle sowie zielgruppenspezifische Angebote schaffen. Unabdingbar ist dabei die Förderung der Kompetenzen wie auch eine aktive Einbindung des bibliothekarischen Personals in den Veränderungsprozess. Zur Unterstreichung dieser Thesen wurden Bibliothekare in einer Online-Umfrage zum aktuellen Veränderungsprozess im Handlungsfeld Auskunftsdienst befragt und sollten bewerten, welche neuen Anforderungen sich daraus für die Berufspraxis ergeben.
Die vorliegende Masterarbeit eruiert informationswissenschaftliche Methoden, um den schriftlichen
Nachlass (bestehend aus Korrespondenzen, (Lebens-)Dokumenten, Fotografien u.ä.) der Familie
Pankok, namentlich von Otto, Hulda und Eva Pankok, zu erschließen. Bei der Bestimmung der
Verfahrensweise sind die Besonderheiten des Pankok Museums und der Otto Pankok Stiftung
entscheidend. Da das Pankok Museum ein kleines Museum mit geringem Stiftungsvermögen der
Otto Pankok Stiftung ist, wird bei der Ermittlung dementsprechend analysiert, welche Maßnahmen
der vorhandenen Infrastruktur gerecht werden. Am Ende der Arbeit steht eine skalierte Bewertung
mit Methoden, die praktisch Schritt für Schritt abgearbeitet werden kann.
Um diese Bewertung fundiert vornehmen zu können, werden vorab nicht nur das Pankok Museum
und die Otto Pankok Stiftung mit ihren Strukturen, finanziellen und personellen Ressourcen sowie
Eigenheiten vorgestellt, sondern auch Nutzer*innengruppen eruiert, die derzeit und zukünftig mit
dem Nachlass der Familie Pankok arbeiten sollen und wollen. Daraus resultierend ermittelt die
Arbeit, die jeweiligen Nutzungsbedarfe dieser Gruppen. Hieraus ergeben sich schließlich Methoden
der Erschließung, die den jeweiligen Bedarfen gerecht werden. Ausgehend von dieser Ausgangsbasis
erarbeitet die Arbeit verschiedene Methoden: Die Gliederung des Bestandes; die vollumfängliche
Erschließung, insbesondere die Einführung eines Archivinformationssystems und einer Klassifikation
bzw. eines Metadatenschemas und die Aufstellungsart; die Digitalisierung, mit Hinblick auf OCR und
Zugangsmöglichkeiten und die Sichtbarkeit und Präsenz. Ein weiteres Kapitel beschäftigt sich neben
den Erschließungsmethoden mit den Gesetzen, die im Rahmen der Erschließung zu beachten sind,
insbesondere das Nutzungs- und Urheberrecht.
Um herauszufinden, inwiefern diese Methoden umgesetzt werden können, evaluiert die Arbeit die
einschlägigen Regelwerke, wie die Regeln zur Erschließung von Nachlässen und Autographen (RNA),
und wirft einen Blick auf andere informationswissenschaftliche Einrichtungen und wie diese
ähnliche Projekte umgesetzt haben.
Schon während der Erhebung von verschiedenen Methoden wird die jeweilige Umsetzbarkeit
anhand der Möglichkeiten des Pankok Museums diskutiert, so dass abschließend
Handlungsvorschläge gegeben werden, die mit einer skalierten Bewertung der Vorgehensweise
enden.
Die vorliegende Bachelorarbeit beschreibt die Konzeption und anschließende medienpraktische Umsetzung des persönlichen Online-Blogs www.thegreenie.eu zum Thema Nachhaltigkeit und einem “Low Impact”-Leben. Dieser bietet aufbereitete Informationen und Handlungstipps für einen nachhaltigeren Lebensstil. Die Konzeption umfasst die Navigationsstruktur, den Aufbau der Site und das Design. Auch die Blog-Inhalte und deren Produktion wurden konzeptionell ausgearbeitet und dokumentiert.
Die Konzeption basiert dabei auf einer Analyse potentieller Nutzer, dem Suchverhalten dieser und einer Benchmark-Analyse themenverwandter Websites. Die Umsetzung des Blogs erfolgte mit dem Content-Management-System Wordpress. Die Dokumentation der vorliegenden Arbeit beschreibt die Auswahl eines Themes und technische Einbindung des Blogs. Außerdem geht daraus hervor, wie der Blog durch integrierte Anpassungsmöglichkeiten im Theme, Plugins und Änderungen im Quellcode personalisiert und dem Zweck angepasst wurde.
Um Traffic zu generieren, wurde die Sichtbarkeit der Website durch Suchmaschinenoptimierung und die Einbindung sozialer Netzwerke erhöht. Die entsprechenden Maßnahmen sind ebenfalls in der Arbeit dokumentiert.
Die vorliegende Bachelorarbeit befasst sich mit der Analyse von Businessprozessen mittels Process Mining. Betrachtet werden sowohl theoretische Grundlagen, als auch die praktische Anwendung von Process Mining. In dieser Arbeit wird untersucht wie relevant der Themenbereich für eine Nutzung ist und welche Chancen und Herausforderungen ein Einsatz von Process Mining beinhaltet.
Am 15. April 2019 stimmte das EU-Parlament für die Umsetzung der Richtlinie über das Urheberrecht im digitalen Binnenmarkt. Die Richtlinie gilt als besonders umstritten, vor allem aufgrund von Art. 17, der besagt, dass zukünftig Plattformen für Urheberrechtsverstöße der Nutzer haften müssen. Schon seit dem Entwurf der Richtlinie 2016 gab es massive Gegenstimmen und sogar Demonstrationen gegen ein solches Vorhaben. Denn laut der Richtlinie soll eine Vorabprüfung von Inhalten auf sozialen Plattformen erfolgen, was technisch nur mit einem sogenannten Upload-Filter umsetzbar ist. Durch den Einsatz einer solchen Filtertechnologie fürchten viele eine Zensur und Einschränkung der Meinungsfreiheit im Internet.
Diese Bachelorarbeit beschäftigt sich damit, warum genau die Richtlinie so umstritten, aber gleichzeitig so wichtig ist und zeigt die Chancen und Risiken auf, die sich durch die Richtlinie für die unterschiedlichen Interessengruppen bieten.
Die vorliegende Bachelorthesis befasst sich mit der Entwicklung und Umsetzung eines Qualitätsmanagementsystems zur Analyse und Gewährleistung der redaktionellen Qualität von digitalen Stellenanzeigen des Online-Stellenmarktes jobvector. Der theoretische Teil beschreibt die Qualitätsfaktoren in digitalen Informationssystemen sowie die Grundlagen von Software-Qualitätsmanagement und Qualitätssicherungsmaßnahmen und dient als Basis für die Entwicklung und Umsetzung eines Systemtools für das redaktionelle Qualitätsmanagement. Der praktische Teil umfasst die Entwicklung einer kriteriengeleiteten Qualitätsanalyse auf Grundlage redaktioneller Qualitätsfaktoren. Das entwickelte Systemtool zur Erfassung der redaktionellen Qualität sowie die Weiterentwicklung des Content-Management-Systems führen zu einer Effizienzsteigerung der redaktionellen Arbeit und ermöglichen eine Reduzierung der Werbeausgaben für nicht optimierte Stellenanzeigen.