Volltext-Downloads (blau) und Frontdoor-Views (grau)
  • search hit 18 of 1074
Back to Result List

Untersuchung der Diffusion von Bias aus Trainingsdaten im Finetuning von Language Models

  • Werden Sprachmodelle auf neue Daten trainiert oder bereits vortrainierte Sprachmodelle durch Finetuning auf neue Daten fein abgestimmt, so lernt ein Sprachmodell jegliche Informationen aus den verwendeten Trainingsdaten. Meistens beinhalten die Trainingsdaten einen Bias. Dieser Bias wird ebenfalls durch die Sprachmodelle aufgenommen und im Antwortverhalten verbreitet. Besonders auf die politische Domäne kann sich diese Eigenschaft negativ auswirken. So können Sprachmodelle durch Finetuning auf politische voreingenommene Daten fein abgestimmt werden, welche anschließend verwendet werden können, um Applikationen zu entwickeln, welche die politische Meinung der Benutzer*Innen beeinflussen sollen. Das Ziel dieser Arbeit ist, zu untersuchen wie sich verschiedene Sprachmodelle auf die Reproduktion der politischen Voreingenommenheit auswirken und welche Auswirkungen verschiedene Faktoren aus dem Trainingsdatensatz auf die Reproduktion der politischen Voreingenommenheit haben. Dafür wurde ein Web Scraper angepasst, um den dadurch generierten Datensatz durch weitere Daten zu erweitern. Bei den Daten im Datensatz handelt es sich um Nachrichtendaten der amerikanischen Politikdomäne. Dieser Datensatz wurde durch die Volltexte der Nachrichten erweitert. Außerdem wurden zusätzlich die Zitate aus den Volltexten entfernt, um die Auswirkung der Zitate auf die Reproduktion der politischen Voreingenommenheit zu untersuchen. Anschließend wurden drei Sprachmodelle, welche auf unterschiedlichen Komponenten der Transformer-Architektur basieren, auf die Schlagzeilen, Volltexte und Volltexte ohne Zitate der linken und rechten Nachrichtendaten fein abgestimmt. Nach dem Finetuning haben die Sprachmodelle Texte für Eingaben generiert. Die generierten Texte wurden durch ein Evaluationsschema auf die politische Voreingenommenheit evaluiert. Dabei wurde die politische Voreingenommenheit am stärksten und genausten durch das Sprachmodell DistilGPT2 reproduziert, welches beim Finetuning die Volltexte verwendet hat. Das Sprachmodell DistilGPT2 basiert auf der Decoder-Komponente der Transformer-Architektur. Stehen viele Daten beim Finetuning zur Verfügung, führt das Verwenden der Volltexte ohne Zitate beim Finetuning zu einer weiteren Verstärkung der Reproduktion der politischen Voreingenommenheit.
  • When finetuned models are trained on new data or when pre-trained language models are fine-tuned to new data, a language model learns any information from the training data used. Most of the time, the training data contains a bias. This bias is also picked up by the language models and propagated in the response behavior. Especially on the political domain this can have a negative impact. Thus, language models can be finetune for political biased data, which can subsequently be used to develop applications that are intended to influence users’ political opinions. The goal of this work is to investigate how different language models affect he reproduction of political bias and what impact different factors from the training dataset have on the reproduction of political bias. To do this, we adapted a web scraper to add more data to the dataset it generated. The data in the dataset is news data from the American political domain. This dataset was extended by the full texts, of the news items. Furthermore, additional citations were removed from the full texts to examine the effect of citations on the reproduction of political bias. Then, three language models, which are based on different components of the Transformer architecture, were fine-tuned to the headlines, full texts, and full texts without citations of the left and right news data. After fine-tuned, the language models generated texts for inputs. The generated texts were evaluated for political bias by an evaluation scheme. Here, political bias was most strongly and accurately reproduced by the DistilGPT2 language model, which used the full texts in finetuning. The DistilGPT2 language model is based on the decoder component from the Transformer architecture. If a lot of data is available during finetuning, using the full texts without citations during finetuning leads to a further amplification of the reproduction of the political bias.

Download full text files

Export metadata

Additional Services

Search Google Scholar

Statistics

frontdoor_oas
Metadaten
Author:Tobias Jennert
Document Type:Bachelor Thesis
Year of first Publication:2023
Date of final exam:2023/08/26
First Referee:Philipp SchaerGND
Advisor:Fabian Haak
Degree Program:Data and Information Science
Language:German
Page Number:59
Tag:Sprachmodell
dataset; finetuning
GND Keyword:Bias
URN:urn:nbn:de:hbz:79pbc-opus-23991
Licence (German):License LogoCreative Commons - Namensnennung-Weitergabe unter gleichen Bedingungen