Ana içeriğe geç

Dedikodulara ve sahte haberlere karşı

Dezenformasyon haber dünyasında ağır bir sorun. İki yeni proje YZ yardımıyla sahte haberlerin maskesini düşürmek istiyor. 

Lisa Priller-Gebhardt , 27.04.2023
Sahte haber tehlikesi – bu noktada YZ yardım edebilir.
Sahte haber tehlikesi – bu noktada YZ yardım edebilir. © AdobeStock / Rawpixel Ltd.

Sahte haberlerin sayısı Ukrayna savaşı, korona pandemisi ve iklim krizi yüzünden fazlasıyla artmış durumda. Ancak bununla Facebook ve Twitter gibi sosyal medya platformlarında milyarlarca kez dönen yanlış bilgiler değil, bilakis bilinçli olarak yayılan yanlış haberler kastediliyor. Yani Botlar veya sahte hesaplar üzerinden yayılan ve sahte oldukları güçlükle ayırt edilen görseller, metinler, videolar. Bunun arkasında yatan bilinçli hedef: Korku yaratmak ve toplumsal dayanışmayı tehlikeye düşürmek. 

Ancak böylesi dezenformasyonlar Yapay Zeka (YZ) yardımıyla sadece yayılmıyor, yine yapay zeka yardımıyla ifşa da edilebiliyor. Bunun için örneğin Almanya’daki Bilişim Araştırma Merkezi (FZI) Federal Eğitim ve Araştırma Bakanlığı (BMBF) desteğiyle DeFaktS projesini hayata geçirdi. DeFaktS “Faktörlerin ve stilistik öğelerin açığa çıkarılmasıyla dezenformasyon kampanyalarının kaldırılması” anlamına geliyor. 

DeFaktS – YZ dezenformasyona karşı uyarıyor 

Program çerçevesinde YZ, şüpheli sosyal medya hizmetlerinde ve mesajlaşma gruplarında dezenformasyonu algılayacak ve buna karşı uyarıda bulunacak şekilde geliştiriliyor. Araştırmacılar bunun için Twitter ve Telegram iletişiminden çok sayıda veri seti oluşturmuş. Böylece yapay zeka duygusal kutuplaşma gibi sahte haberlerin tipik stilistik öğelerini algılayabiliyor. 

Sonraki adımda geliştirilmiş YZ bir XAI (Explainable Artificial Intelligence) için kullanılıyor. FZI uyarınca bu açıklanabilir Yapay Zeka’nın sadece olası sakıncalı içeriklerin mevcut olduğunu belirtmekle kalması amaçlanmıyor. Aynı zamanda bu uyarıya neden olan gerekçeleri de belirtmesi amaçlanıyor. Ancak araştırmacıların hedefi içerikleri filtrelemek veya sansürlemek değil. Kullanıcıların kendisi bilgilere eleştirel yaklaşması gerekiyor. “Toplumun dijital eğitimi çerçevesinde bu konu bizim için çok önemli” diye açıklıyor FZI uzmanı Jonas Fegert. 

noFake – İnsan ve YZ işbirliği 

Correctiv Araştırma Merkezi de yanlış bilgileri tanıması için insanın eline bir araç vermek istiyor. Bochum Ruhr Üniversitesi ve Dortmund Teknik Üniversitesi ile birlikte “noFake” projesini geliştiriyorlar. İnsan ve Yapay Zeka işbirliğiyle gerçeklerin ile hatalı bilgilerin ayırt edilmesinin kolaylaştırılması amaçlanıyor. Bunun için bilim insanları, sadece potansiyel hatalı bilgileri meydana çıkarmakla kalmayan, aynı zamanda metin ve görsel analizinde de yardım sağlayan, YZ destekli asistan sistemleri oluşturuyor. Sonrasında katılımcı vatandaşlar Crowdworker olarak “Correktiv.Faktenforum” platformu üzerinden bilgileri bizzat kontrol edebiliyor. Bunun için öncesinde eğitim alıyorlar. Correctiv’in yayıncısı David Schraven “Böylece katılımı profesyonel standartlarla birleştiren bir gerçekleri kontrol topluluğu inşa ediyoruz” diye açıklıyor bunu. 

© www.deutschland.de