Przejdź do głównej zawartości

Przeciwko plotkom i fake newsom

Dezinformacja stała się ogromnym problemem przestrzeni informacyjnej. Dwa nowe projekty chcą zwalczać fake newsy przy pomocy sztucznej inteligencji. 

Lisa Priller-Gebhardt , 26.04.2023
Zagrożenie fake newsami – tu może pomóc AI.
Zagrożenie fake newsami – tu może pomóc AI. © AdobeStock / Rawpixel Ltd.

Ilość fake newsów w ostatnich latach znacząco wzrosła, także w związku z wojną w Ukrainie, pandemią koronawirusa i kryzysem klimatycznym. Nie chodzi tu jednak o nieprawdziwe informacje, których ogromne ilości pojawiają się w mediach społecznościowych jak Facebook czy Twitter, lecz rozpowszechniane celowo fałszywe wiadomości. A więc zdjęcia, teksty czy filmy, rozpowszechniane przez boty lub fałszywe konta, które trudno jednoznacznie zidentyfikować jako nieprawdziwe. Kryje się za tym świadomy cel: podsycanie lęku i zagrożenie solidarności społecznej. 

Jednak za pomocą sztucznej inteligencji (AI) można już nie tylko szerzyć informacje, lecz także rozpoznawać przypadki celowej dezinformacji. Na przykład w Niemczech, w Centrum Badań Informatycznych (FZI) przy wsparciu Federalnego Ministerstwa Oświaty i Badań Naukowych (BMBF) stworzono w tym celu projekt DeFaktS. Rozwinięcie skrótu DeFaktS oznacza tyle co „Udaremnianie kampanii dezinformacyjnych poprzez ujawnianie czynników i środków stylistycznych“. 

DeFaktS – AI ostrzega przed dezinformacją 

Program trenuje AI w taki sposób, aby potrafiła ona rozpoznawać próby dezinformacji na podejrzanych kontach w serwisach społecznościowych i komunikatorach, oraz ostrzegać przed nimi. Badacze stworzyli obszerne bazy danych informacji zamieszczanych na Twitterze i Telegramie. Sztuczna inteligencja może dzięki temu rozpoznawać środki stylistyczne typowe dla fake newsów, takie jak emocjonalna polaryzacja. 

W kolejnym etapie wytrenowana AI wykorzystywana jest w metodach tak zwanej XAI (Explainable Artificial Intelligence). Zgodnie z informacjami FZI, ta „wyjaśnialna sztuczna inteligencja” ma nie tylko wskazywać na występowanie podejrzanych treści. Ma ona też umożliwiać zrozumienie, co skłoniło ją do wydania ostrzeżenia. Badaczom nie chodzi jednak o filtrowanie czy też cenzurowanie treści. Użytkownicy powinni sami krytycznie oceniać informacje. „W kontekście cyfrowej edukacji społeczeństwa, ten aspekt był dla nas szczególnie ważny“, wyjaśnia ekspert FZI, Jonas Fegert. 

noFake – Współpraca człowieka i AI 

Także centrum badawcze Correctiv chce udostępnić ludziom narzędzie, które pomoże im w rozpoznaniu fałszywych informacji. Wspólnie z Uniwersytetem Ruhry w Bochum oraz Uniwersytetem Technicznym w Dortmundzie pracuje nad projektem „noFake“. Zakłada on współpracę ludzkiej i sztucznej inteligencji, mającą ułatwić odróżnienie faktów od fake newsów. Naukowcy tworzą w tym celu systemy asystenckie oparte na sztucznej inteligencji, które nie tylko wychwytują potencjalnie nieprawdziwe treści, lecz pomagają również w analizie tekstu i obrazu. Zaangażowani obywatele mogą jako pracownicy platformowi sami sprawdzać informacje poprzez platformę „Correktiv.Faktenforum“. Wcześniej przechodzą w tym zakresie specjalne szkolenie. „Budujemy społeczność sprawdzającą fakty, która łączy zaangażowanie z profesjonalnymi standardami“, wyjaśnia David Schraven, wydawca Correctiv. 

© www.deutschland.de