Zum Hauptinhalt springen

Gegen Gerüchte und Fake News

Desinformation ist ein massives Problem in der Nachrichtenwelt. Zwei neue Projekte wollen Fake News mithilfe von KI entlarven. 

Lisa Priller-Gebhardt , 26.04.2023
Gefahr Fake News – hier kann KI helfen.
Gefahr Fake News – hier kann KI helfen. © AdobeStock / Rawpixel Ltd.

Die Zahl von Fake News ist auch durch den Ukraine-Krieg, die Corona-Pandemie und die Klimakrise stark gestiegen. Damit sind jedoch nicht falsche Informationen gemeint, wie sie milliardenfach Social-Media-Plattformen wie Facebook und Twitter fluten, sondern bewusst verbreitete Falschmeldungen. Also Bilder, Texte, Videos, die über Bots oder Fake-Accounts verbreitet werden und die nur schwer als Fake zu erkennen sind. Das bewusste Ziel dahinter: Angst schüren und den gesellschaftlichen Zusammenhalt gefährden. 

Doch mithilfe von Künstlicher Intelligenz (KI) werden solche Desinformationen nicht nur verbreitet, mit ihr können sie auch aufgedeckt werden. Dazu hat beispielsweise in Deutschland das Forschungszentrum Informatik (FZI) mit Unterstützung des Bundesministeriums für Bildung und Forschung (BMBF) das Projekt DeFaktS aufgesetzt. DeFaktS steht für „Desinformationskampagnen beheben durch Offenlegung der Faktoren und Stilmittel“. 

DeFaktS – KI warnt vor Desinformation 

Im Rahmen des Programms wird die KI so trainiert, dass sie Desinformation in verdächtigen Social-Media-Diensten und Messenger-Gruppen erkennt und davor warnt. Dazu haben die Forschenden viele Datensätze aus der Twitter- und Telegram-Kommunikation erstellt. So kann die Künstliche Intelligenz die für Fake News typischen Stilmittel, wie etwa emotionale Polarisierung, erkennen. 

Im nächsten Schritt wird die trainierte KI für eine sogenannte XAI (Explainable Artificial Intelligence) genutzt. Laut FZI soll diese erklärbare Künstliche Intelligenz nicht nur darauf hinweisen, dass möglicherweise heikle Inhalte vorliegen. Sie soll auch nachvollziehbar machen, welche Gründe sie zu dieser Warnung veranlasst haben. Den Forschenden geht es jedoch nicht darum, Inhalte zu filtern oder zu zensieren. Userinnen und User sollen selbst Informationen kritisch hinterfragen. „Im Sinne der digitalen Bildung der Gesellschaft war uns dieser Aspekt sehr wichtig“, erklärt FZI-Experte Jonas Fegert. 

noFake – Zusammenarbeit von Mensch und KI 

Auch das Recherchezentrum Correctiv will den Menschen ein Werkzeug an die Hand geben, das ihnen hilft, Falschinformationen zu erkennen. Es entwickelt zusammen mit der Ruhr-Universität Bochum und der TU Dortmund das Projekt „noFake“. Menschliche und Künstliche Intelligenz sollen im Zusammenspiel die Unterscheidung zwischen Fakten und Fehlinformation erleichtern. Dazu erstellen die Wissenschaftlerinnen und Wissenschaftler KI-gestützte Assistenzsysteme, die nicht nur potenzielle Falschinformationen aufspüren, sondern auch bei der Text- und Bildanalyse helfen. Engagierte Bürgerinnen und Bürger können dann als Crowdworker über die Plattform „Correktiv.Faktenforum“ selbst Informationen checken. Dazu werden sie vorher geschult. „Wir bauen so eine Faktencheck-Community auf, die Engagement mit professionellen Standards verbindet“, erklärt David Schraven, Publisher von Correctiv. 

© www.deutschland.de