DeFaktS

Loading...
Thumbnail Image

Volume

Issue

Journal

Series Titel

Book Title

Publisher

Hannover : Technische Informationsbibliothek

Link to publishers version

Abstract

Das Verbundprojekt DeFaktS untersuchte, wie Desinformation in geschlossenen digitalen Räumen entsteht, sich verbreitet und algorithmisch erkannt werden kann. Ziel war die Entwicklung eines datenschutzkonformen End-to-End-Systems zur Erfassung, Analyse und erklärbaren Klassifikation von Desinformation in realen Kommunikationsumgebungen. Am Projekt beteiligt waren vier Partner: Murmuras (MMS), die Philipps-Universität Marburg (UMR), das FZI Forschungszentrum Informatik und Liquid Democracy. MMS verantwortete die mobile Datenerhebung über Smartphones, das FZI die Entwicklung der KI-Modelle und Explainable-AI-Komponenten, Liquid Democracy die Integration in eine Diskussionsplattform. Die UMR übernahm die zentrale wissenschaftliche Rolle: Datenaufbereitung, Annotation, Qualitätssicherung, Evaluation und ethische Begleitung. Ein Alleinstellungsmerkmal war die Erhebung realer Kommunikationsdaten aus Telegram- und Messenger-Kanälen, ergänzt um Twitter-Daten. Während internationale Forschung meist auf öffentlich zugängliche Plattformen wie Twitter beschränkt blieb, gelang hier erstmals eine systematische, DSGVO-konforme Erhebung authentischer deutschsprachiger Kommunikationsdaten. Daraus entstand der erste annotierte Datensatz für deutschsprachige Messenger-Kommunikation, der bereits international als Referenzkorpus dient. Auf dieser Basis entwickelten UMR und FZI KI-Verfahren zur automatischen Erkennung und Erklärung von Desinformation. Dabei zeigte sich: Sprachliche Muster allein reichen nicht aus, um Fake News zuverlässig zu identifizieren. Erklärbare Systeme müssen sprachliche, emotionale und faktische Dimensionen verbinden – ein Befund, der den Einsatz von Large Language Models (LLMs) nahelegt. Eine begleitende Evaluation mit der von MMS entwickelten Defaktron-App bestätigte technische Machbarkeit und Nutzerakzeptanz, zeigte jedoch den Bedarf an nachvollziehbaren, faktenbasierten Erklärungen. DeFaktS verdeutlicht, dass Desinformationsforschung ein kontinuierlicher Prozess ist. Fake News verändern sich ebenso wie Plattformen und Verbreitungsmechanismen. Langfristig ist daher eine Verstetigung der Datenerhebung notwendig, um ein laufendes Lagebild der digitalen Desinformationslandschaft zu schaffen – als Beitrag zur Stärkung demokratischer Resilienz. Mit der Integration moderner LLM-Technologien steht nun die nächste Entwicklungsstufe bevor: Ein erneuerter DeFaktS-Stack könnte LLMs nutzen, um Fake News nicht nur zu erkennen, sondern auch zu erklären und kontextualisieren. Damit leistet DeFaktS einen nachhaltigen Beitrag zur verantwortungsvollen, datengetriebenen KI-Forschung im 21. Jahrhundert.

Description

Keywords

License

Creative Commons Attribution-NonDerivs 3.0 Germany