إلى المحتوى الرئيسي

التزييف العميق للسلاح السيبراني

باستمرار تزداد صعوبة اكتشاف مقاطع الفيديو المزيفة. تعرف هنا على ما يعنيه هذا الأمر، وكيف تكون الحماية منها.

لاورالي ميلينة شفايغر, 14.11.2022
مع "مبادلة الوجه" يتم استبدال وجه الشخص المستهدف على الهواء
مع "مبادلة الوجه" يتم استبدال وجه الشخص المستهدف على الهواء © AdobeStock

التزييف العميق هو مقاطع فيديو وبيانات صوتية. يأتي المصطلح من دمج مصطلحي "التعلم العميق" و"التزييف": الذكاء الصناعي يتعلم كيفية استخدام المواد المتوفرة في سبيل تقليد الأشخاص المستهدفين. بهذا يمكن لمقطع مزيف يبدو في غاية الحقيقة للفنان العالمي توم كروز أن يسحر ملايين المتابعين عبر يوتيوب، كما يمكن لفاعلين ومؤثرين في عالم السياسة والاقتصاد الوقوع ضحية هذا السلاح الخطير في عالم الجريمة الإلكترونية "السيبرانية".

@deeptomcruise High and tigh then… eyebrows ✂️ #footloose ♬ Footloose - Kenny Loggins

عقبات الدخول المتواضعة

يكمن الخطر بشكل رئيسي في أن التزييف العميق يتيح التزوير أو التلاعب الحي والمباشر. وبشكل خاص في المكالمات المصورة عبر الفيديو ليس هناك حاجة لبناء الثقة، كما هي الحال في مكالمات التصيد الاحتيالي. يمكن لأي إنسان ممارسة التزييف العميق إذا توفرت لديه البرامج المطلوبة وقوة وسرعة الحوسبة اللازمة، ولديه بعض مقاطع الفيديو للشخص المستهدف بحيث يمكنه إعادة تقديمها بشكل مشابه، مع الخلفيات المناسبة والإضاءة الضرورية.  

الانتباه للمؤثرات الفنية

ماتياس نوي من المكتب الاتحادي لأمن تقنية المعلومات (BSI) يوضح كيف يمكن استكشاف التزييف العميق. فيما يتعلق بأفلام الفيديو أو المكالمات المصورة بالفيديو ينبه إلى الأخطاء التقليدية (في العرض) المعروفة باسم "المؤثرات الفنية". حيث يمكن أن تظهر حول الوجه عندما يتم وضع رأس الشخص المستهدف على جسم آخر. "غالبا ما يحدث أن عملية تبديل الوجه لا تتعلم بشكل صحيح خلق ملامح حادة، مثل تلك الموجودة في الأسنان أو العينين"، حسب نوي. لدى التأمل بشكل دقيق تبدو هذه الملامح باهتة. كلما نقص حجم البيانات الأصلية التي يعرفها الذكاء الصناعي، تراجعت تعابير الوجه وإضاءة الرأس ووضوح ونقاء الرأس التي يتم تقليدها. من لديه شكوك فيما إذا كان الفيديو بالفعل للشخص الحقيقي، يمكنه الطلب من الشخص المقابل أن يضغط على وجنته، وإذا كان الاتصال يتم عبر الهاتف، فيمكنه طلب معاودة الاتصال.

الهجوم أفضل وسيلة للدفاع

يوجد الآن ذكاء صناعي يمكنه كشف القناع عن الذكاء الصناعي المزيف. ويتم هذا بالتعاون بين عدة مشروعات مدعومة من الوزارة الألمانية الاتحادية للتعليم والبحث العلمي. وحسب ماتياس نوي، فإن الطرق الآلية للكشف عن التزييف العميق مازالت غير مؤهلة للاستخدام العملي. يمكن للذكاء الصناعي التعلم فقط من أساليب الهجوم المعروفة لأغراض التدريب، ولكن يوجد العديد من الاحتمالات. من أجل تقييم قدرات التهديد وإمكاناته يقوم مكتب BSI بتحليل الطرق المعروفة. حيث من الضروري تقييم طرق الكشف، إضافة إلى العمل على تطوير قدرات الكشف الآلي. علاوة على ذلك يقوم مكتب BSI بتنظيم محاضرات وتقديم نشرات، إضافة إلى صفحة تخصصية حول الموضوعات التقنية، حسب نوي، حيث أن: "واحدا من أهم الإجراءات المضادة يتجلى في التنوير والتوعية حول وجود طرق وأساليب التزييف هذه".

© www.deutschland.de

You would like to receive regular information about Germany? Subscribe here