إلى المحتوى الرئيسي

في مواجهة الثرثرة والأخبار المزيفة

يٌعتبر التضليل الإعلامي مشكلةً كبيرةً في عالم الأخبار. مشروعان جديدان يهدفان إلى تعرية الأخبار المزيفة بمساعدة الذكاء الصناعي. 

Lisa Priller-Gebhardt , 27.04.2023
مخاطر الأخبار المزيفة - الذكاء الصناعي يقدم المساعدة
مخاطر الأخبار المزيفة - الذكاء الصناعي يقدم المساعدة © AdobeStock / Rawpixel Ltd.

أعداد الأخبار المزيفة تزايدت بشكل كبير، أيضاً من خلال حرب أوكرانيا وجائحة كورونا. إلا أن هذا لا يعني المعلومات الخاطئة، مثل تلك التي يتم تداولها بالمليارات عبر وسائل التواصل الاجتماعي، مثل فيسبوك وتويتر، وإنما يعني الأخبار التي يتم تزييفها ونشرها عن عمد. أي الصور ومقاطع الفيديو التي يتم نشرها عبر الروبوتات أو الحسابات المزورة والتي لا يمكن كشفها على أنها مزورة، إلا بصعوبةٍ كبيرة. الهدف المقصود من وراء ذلك هو: نشر الرعب وعدم الثقة وتهديد التضامن الاجتماعي. 

ولكن بمساعدة الذكاء الصناعي (KI) لم يعد من الممكن فقط نشر مثل هذه الأفكار، وإنما الكشف أيضاً عن مثل هذا التضليل الإعلامي. ولهذه الغاية عمد في ألمانيا على سبيل المثال مركز أبحاث المعلوماتية (FZI) بدعم من الوزارة الألمانية الاتحادية للتعليم والبحث العلمي (BMBF) إلى تأسيس مشروع الكشف عن التضليل «DeFaktS». «DeFaktS» هي اختصار «مواجهة حملات التضليل الإعلامي عبر الكشف عن الوسائل والأدوات». 

مشروع «DeFaktS» يحذر من التضليل الإعلامي 

ضمن إطار البرنامج يتم تدريب الذكاء الصناعي بحيث يمكنه اكتشاف التضليل الإعلامي المتداول على صفحات التواصل الاجتماعي وفي مجموعات الرسائل، والتحذير منها. لهذه الغاية عمد الباحثون إلى صياغة عددٍ كبيرٍ من مجموعات البيانات، من اتصالات تويتر وتيليغرام. بهذا يمكن للذكاء الصناعي التعرف على الأساليب والوسائل النمطية المتداولة للتضليل الإعلامي، مثل الاستقطاب العاطفي. 

في الخطوة التالية يتم توظيف الذكاء الصناعي المُدَرّب فيما يعرف باسم XAI (الذكاء الصناعي القابل للتفسير). حسب مركز FZI، من المفترض أن لا يكتفي هذا الذكاء الصناعي القابل للتفسير بالإشارة فقط إلى احتمال وجود موضوعاتٍ أو محتوياتٍ حرجة، مشكوك بها، وإنما سيكون قادراً أيضاً على توضيح أسباب إعلانه عن مثل هذا التحذير. حيث أن الباحثين لا يهدفون إلى تنقية المواد والمضامين أو مراقبتها. إذ يتوجب على المستخدمين والمستخدمات أنفسهم متابعة المحتويات والتأكد من مصداقيتها. «ضمن إطار الثقافة الرقمية في المجتمع، كان هذا الجانب مهماً بالنسبة لنا»، يقول يوناس فيغيرت، الخبير في مركز FZI. 

لا للتضليل «noFake» - التعاون بين الإنسان والذكاء الصناعي 

يُوَفّر أيضاً مركز الحاسوب «كورريكتيف» للإنسان الوسيلة التي تساعده في اكتشاف المعلومات الخاطئة والمزورة. فهو يقوم بتطوير مشروع لا للتضليل «noFake»، بالتعاون مع جامعة الرور في بوخوم وجامعة دورتموند التقنية. بالتعاون بين الذكاء البشري والذكاء الصناعي، يصبح من السهل التمييز بين الحقائق والمعلومات المزيفة. لهذه الغاية يقوم الباحثون والباحثات بإعداد أنظمةٍ مساعدة تعمل بالذكاء الصناعي، لا يمكنها الاستبيان والبحث عن المعلومات المحتملة الخاطئة وحسب، وإنما تكون قادرةً أيضاً على المساعدة في تحليل النصوص والصور. مواطنون ملتزمون وناشطون يمكنهم بعد ذلك المشاركة كعمالٍ جماعيين عبر منصة «كورريكتيف» للتأكد بأنفسهم من صحة المعلومات. حيث يتم تدريبهم على هذه المهمة بشكلٍ مسبق. «بهذا يتشكل لدينا مجتمعٌ لاختبار الحقائق، يجمع بين الالتزام من ناحية والعمل على مستوياتٍ حرفية من ناحيةٍ أخرى»، حسب دافيد شرافن، صاحب منصة كورريكتيف. 

© www.deutschland.de