Large Language Models for automated detection and classification of media bias and propaganda

Doktorand / Doktorandin Tim Menzner
Zeitraum 01.03.2023 - 28.02.2029
Wissenschaftlich betreuende Personen HS-Coburg Prof. Dr. Jochen L. Leidner und Prof. Dr. Claudia Lohrenscheit
Einrichtungen Hochschule Coburg
Promotionszentrum Analytics4Health (A4H)
Fakultät Wirtschaftswissenschaften (FW)
Center for Responsible Artificial Intelligence CRAI
Wissenschaftlich betreuende Person (extern)

Abstract

Die vorliegende Arbeit untersucht die Anwendung von Large Language Models (LLMs) bei der automatisierten Erkennung und Klassifizierung von Media Bias und Propaganda. Media Bias, ein historisches Phnomen, beeinflusst die ffentliche Meinungsbildung und die gesellschaftlichen Strukturen erheblich. Die Dissertation zielt darauf ab, ein Taxonomiesystem zu entwickeln, das verschiedene Arten von Verzerrungen auf Satzebene klassifiziert, um LLMs darauf zu trainieren und deren Effektivitt zu bewerten. 

Durch den Einsatz von Natural Language Processing (NLP) sollen groe Datenmengen effizient analysiert werden, um Muster in der Berichterstattung und deren potenzielle (bewusste oder unbewusste) Manipulationsstrategien aufzuzeigen. Dies ist insbesondere fr Gesundheitsthemen von Bedeutung, wie die kontroverse Medienberichterstattung whrend der COVID-19-Pandemie zeigt und direkte Auswirkungen derselben auf die ffentliche Gesundheit zeigt. Ebenso besteht ein Zusammenhang zwischen Media Bias und der psychische Gesundheit, etwa durch "Negativity Bias" und das damit zusammenhngende Phnomen des Doomscrollings. 

Die Forschung stützt sich auf frühere Arbeiten zu NLP und Bias, identifiziert jedoch Lücken, wie die Notwendigkeit einer detaillierten Taxonomie, die Nutzung von autoregressiven Modellen und die Entwicklung praktisch einsetzbarer Tools. Die Forschung soll helfen, mediale Verzerrungen transparenter zu machen und eine kritischere Auseinandersetzung mit Nachrichteninhalten zu fördern.