Refine
Year of publication
- 2019 (63) (remove)
Document Type
- Bachelor Thesis (33)
- Master's Thesis (24)
- Other (2)
- Study Thesis (2)
- Article (1)
- Conference Proceeding (1)
Language
- German (63)
Keywords
- Social Media (7)
- Informationskompetenz (3)
- Kooperation (3)
- E-Learning (2)
- Forschungsdatenmanagement (2)
- Förderung (2)
- Journalismus (2)
- Kundenbindung (2)
- Rechtspopulismus (2)
- Weblog (2)
Am 15. April 2019 stimmte das EU-Parlament für die Umsetzung der Richtlinie über das Urheberrecht im digitalen Binnenmarkt. Die Richtlinie gilt als besonders umstritten, vor allem aufgrund von Art. 17, der besagt, dass zukünftig Plattformen für Urheberrechtsverstöße der Nutzer haften müssen. Schon seit dem Entwurf der Richtlinie 2016 gab es massive Gegenstimmen und sogar Demonstrationen gegen ein solches Vorhaben. Denn laut der Richtlinie soll eine Vorabprüfung von Inhalten auf sozialen Plattformen erfolgen, was technisch nur mit einem sogenannten Upload-Filter umsetzbar ist. Durch den Einsatz einer solchen Filtertechnologie fürchten viele eine Zensur und Einschränkung der Meinungsfreiheit im Internet.
Diese Bachelorarbeit beschäftigt sich damit, warum genau die Richtlinie so umstritten, aber gleichzeitig so wichtig ist und zeigt die Chancen und Risiken auf, die sich durch die Richtlinie für die unterschiedlichen Interessengruppen bieten.
Die vorliegende Bachelorthesis befasst sich mit der Entwicklung und Umsetzung eines Qualitätsmanagementsystems zur Analyse und Gewährleistung der redaktionellen Qualität von digitalen Stellenanzeigen des Online-Stellenmarktes jobvector. Der theoretische Teil beschreibt die Qualitätsfaktoren in digitalen Informationssystemen sowie die Grundlagen von Software-Qualitätsmanagement und Qualitätssicherungsmaßnahmen und dient als Basis für die Entwicklung und Umsetzung eines Systemtools für das redaktionelle Qualitätsmanagement. Der praktische Teil umfasst die Entwicklung einer kriteriengeleiteten Qualitätsanalyse auf Grundlage redaktioneller Qualitätsfaktoren. Das entwickelte Systemtool zur Erfassung der redaktionellen Qualität sowie die Weiterentwicklung des Content-Management-Systems führen zu einer Effizienzsteigerung der redaktionellen Arbeit und ermöglichen eine Reduzierung der Werbeausgaben für nicht optimierte Stellenanzeigen.
State of Art - Web Scraping
(2019)
Die vorliegende Bachelorarbeit hat zum Ziel, dem allgemeinen Leser die aktuell genutzten Methoden des Web Scraping zur Extraktion von relevanten Daten aus vorher definierten Webseiten darzustellen und miteinander zu vergleichen.
Dafür wurde zunächst der Forschungsgegenstand in seiner Art und Funktionsweise definiert und gegen andere Informationsextraktionsverfahren abgegrenzt. Anschließend galt es grundlegende, aktuelle und innovative Techniken des Web Scraping anhand von ausgewählten Beispielen vorzustellen. Anhand von drei Kategorisierungsansätzen (Glez-Pena, Ferrara, Chang) wurden die verschiedenen Ebenen, auf denen ein Web Scraper zu betrachten ist, herausgearbeitet und in einer Gegenüberstellung der Ansätze auf Parallelen und Gegensätze dieser Kategorien überprüft.
Web Scraping bietet eine probate Methode, relevante Inhalte aus dem World Wide Web ohne erforderlichen Zugriff auf den jeweiligen Webserver der Zielseite zu extrahieren. Dabei führt die zunehmende Entwicklung von Web Scrapern hin zu einer benutzerfreundlichen visuellen Umgebung und einfachen Bedienung dazu, dass die Tools sich einem immer breiteren Anwenderpublikum öffnen.
2019 feierte der berufsbegleitende MALIS-Studiengang der TH Köln sein zehnjähriges Bestehen. Dies ist der Anlass, ein Resümee zu ziehen, das bisher Erreichte zu beleuchten, die Vorteile für Studierende speziell dieses Weiterbildungsangebotes herauszustellen und die Besonderheiten des Studiengangs näher in den Fokus zu nehmen.
Durch das in den letzten Jahren entstandene Angebot an Online-Quellen fällt es den Redakteur*innen deutlich leichter für eigene Aufträge und Aufgaben zu recherchieren als in der Vergangenheit. Dies führt dazu, dass Recherchedienste wie die Abteilung Dokumentation und Archive von Deutschlandradio weniger genutzt werden.
Durch eine Umfrage in den Redaktionen, sowie Interviews der Beschäftigten von Dokumentation und Archive werden die entstandenen Schwierigkeiten genauer erläutert und zusammengefasst.
Die genannte Befragung lehnt dabei an eine andere, ähnliche Umfrage aus dem Jahre 2010 an, in der bereits die Zufriedenheit der Redakteur*innen mit den Angeboten des Archiv-Service (einem Unterbereich von Dokumentation und Archive) eruiert wurde.
Anhand dieser Informationen können mögliche Maßnahmen ermittelt werden, die zu einer besseren Zusammenarbeit führen können und die verschiedenen Angebote wieder neu zu entdecken.
Generell ist aus Kosten- und Zeitgründen von einer klassischen Marketingstrategie abzusehen. Es werden bereits verschiedene Kanäle zur Vermittlung der Services genutzt. Die darin enthaltenen Informationen sollen in Zukunft genauer erläutert werden und direkter dem Endnutzer zur Verfügung gestellt werden.
Informationsintegration ist in den Digitalen Geistes- und Kulturwissenschaften ein wichtiges Thema, denn sie verwirklicht die Zusammenführung und übergreifende Nutzbarkeit heterogener Metadatenbeschreibungen aus unterschiedlichen Kontexten. Eine interoperable Modellierung und Dokumentation eines Metadatenschemas ermöglicht die erweiterte Nutzbarkeit durch Abbildbarkeit und Auffindbarkeit von Daten beispielsweise von verschiedenen digitalen Kollektionen zu Objekten des kulturellen Erbes und ermöglicht neue Nutzungsszenarien über deren ursprünglichen Modellierungszweck hinaus. Interoperabilität – umgesetzt vor allem durch Nutzung von Standards und der Dokumentation einer Metadatenbeschreibung – ist dabei die wichtigste Voraussetzung der Informationsintegration. Doch erst durch das konzeptionelle und technische Mapping einer modellierten Metadatenbeschreibung auf eine Zielbeschreibung wird eine kontextübergreifende Nutzbarkeit von Daten ermöglicht. In der vorliegenden Masterarbeit wird anhand der Umsetzung eines konzeptionellen Mappings die Frage untersucht, wie sinnvolles Mapping von domänenspezifischen Beschreibungen zu kulturhistorischen Bildinhalten einer spezifischen Fachdomäne auf eine interoperable metadatenbasierte Beschreibung gelingen kann. Dazu wird das konzeptionelle Mapping auf das LIDObasierte Anwendungsprofil der Deutschen Digitalen Bibliothek skizziert und in die Diskussion zu Mappingverfahren von Metadaten – insbesondere zu Bildinhalten des digitalen Kulturerbes – eingebunden.
Die FAIR-Prinzipien setzen sich seit ihrer Formulierung im Jahr 2016 immer mehr durch. Ihr Ziel ist, die Nachnutzbarkeit von Forschungsdaten sicherzustellen, allerdings sind es nur Leitlinien, die fachlich ausgelegt werden müssen. Wissenschaftliche digitale Editionen, die hier als Daten-Community verstanden werden, kämpfen vermehrt mit dem Problem der Nachhaltigkeit. Es wird daher untersucht, inwiefern die FAIR-Prinzipien als Leitlinien für digitale Editionen herangezogen werden können. Hierbei werden sowohl die zugrunde liegenden Daten als auch die Software in der Analyse berücksichtigt. Es zeigt sich, dass alle Facetten der Prinzipien bereits unter anderem Namen diskutiert werden, die FAIR-Prinzipien dennoch als Leitlinien für zukünftige Entwicklungen produktiv herangezogen werden können.
Die vorliegende Bachelorarbeit befasst sich mit der Frage, welche Kriterien einen verlässlichen Experten im Wissenschaftsjournalismus auszeichnen. Dabei orientiert sie sich an der Arbeit des Science Media Centers Germany und analysiert dessen Expertenkonzept. Ziel ist es, Kriterien zu ermitteln, die Rückschlüsse auf die Verlässlichkeit von Experten zulassen und bei der Einordnung durch Wissenschaftsjournalisten oder Laien helfen.
Dazu wurde zunächst der interne Kriterienkatalog des Science Media Centers ausgewertet. Anschließend erfolgte eine Literaturanalyse zum Thema Experten, mit besonderem Fokus auf die Anforderungen an Experten im Wissenschaftsjournalismus. Um die Charakterisierung von Experten zu komplementieren, wurden qualitative Interviews mit Experten und anderen Interessengruppen durchgeführt.
Folgende Schlussfolgerung ergibt sich nach der Auswertung der Quellen: Zu den wichtigsten Kriterien für verlässliche Experten im Wissenschaftsjournalismus gehört eine herausragende Fachkompetenz, Vermittlungsfähigkeit und Verfügbarkeit. Darüber hinaus sind noch weitere Indikatoren ermittelt worden, die den Kriterienkatalog des Science Media Centers ergänzen.
Achim Oßwald, 1956 geboren, studierte zunächst Geschichte und Germanistik in Freiburg, bevor er das Studium der Informationswissenschaft in Konstanz absolvierte, wo er auch 1992 auch promovierte. Der Konstanzer Informationswissenschaft blieb er immer treu und sie hat ihn maßgeblich geprägt. Sein beruflicher Werdegang führte ihn von Siemens (München) über das Lehrinstitut für Dokumentation (Frankfurt) schließlich 1994 als Professor an die damalige Fachhochschule für Bibliotheks- und Dokumentationswesen (FHBD) nach Köln. Maßgeblich gestaltete er den Integrationsprozess dieser in die Fachhochschule Köln (seit 2015 TH Köln) sowie die Neugestaltung der Studiengänge als Dekan mit. Achim Oßwald war und ist sowohl auf Instituts- und Fakultätsebene als auch außerhalb der TH Köln – national und international – in zahlreichen Gremien mit unterschiedlichen Funktionen immer aktiv gewesen und wird es sicher auch weiterhin bleiben.
Die vorliegende Festschrift ist vor allem die Würdigung seines persönlichen und fachlichen Engagements während 25 Jahren als Professor an der TH Köln. Der Titel dieser Festschrift "Bibliotheksentwicklung im Netzwerk von Menschen, Informationstechnologie und Nachhaltigkeit“ bildet die Bereiche ab, die Achim Oßwald stets wichtig waren und sind.