Ana içeriğe geç

Bir siber silah olarak deepfake’ler

Manipüle edilmiş videoların tespiti gittikçe daha zorlaşıyor. Bunların ne olduğunu ve nasıl korunacağınızı burada okuyabilirsiniz.

Lauralie Mylène Schweiger, 14.11.2022
“Yüz değiştirme” ile kişinin yüzü canlandırmalı olarak değiştiriliyor.
“Yüz değiştirme” ile kişinin yüzü canlandırmalı olarak değiştiriliyor. © AdobeStock

“Deepfake” manipüle edilmiş video ve ses dosyalarını ifade ediyor. Terim “derin öğrenme” (deep learning) ve “sahte” (fake) kelimelerinin birleşiminden oluşuyor: Yapay zeka, mevcut materyallerden hedef kişileri taklit etmeyi öğreniyor. Bu sayede örneğin TikTok’ta aldatıcı bir şekilde gerçek görünen bir Tom Cruise milyonlarca izleyiciyi büyüleyebiliyor ya da siyaset ve iş dünyası aktörleri bu tehlikeli siber suç silahının kurbanı olabiliyorlar.

@deeptomcruise High and tigh then… eyebrows ✂️ #footloose ♬ Footloose - Kenny Loggins

Kolay kullanım imkanı

Buradaki en büyük tehlikelerden biri deepfake ile görüntü manipülasyonunun canlı olarak da gerçekleştirilebiliyor olması. Özellikle görüntülü aramalarda, kimlik avı dolandırıcılığı aramalarında olduğu gibi önce güvenin oluşturulmasına gerek kalmıyor. Gerekli yazılıma ve uygun işlem gücüne sahip olan, elinde hedef kişinin birkaç video klibinin bulunduğu ve bunları arka plan ve ışık koşullarıyla mümkün olduğunca benzer şekilde yeniden oluşturabilen herkes deepfake oluşturulabilir.

Artefakt’lara dikkat

Federal Enformasyon Teknolojileri Güvenliği Dairesinden (BSI) Matthias Neu, deepfake’lerin nasıl tespit edilebileceğini anlatıyor. Video ya da görüntülü görüşmeler söz konusu olduğunda Neu, “artefakt” olarak adlandırılan grafik kusurlarına dikkati çekiyor. Bunlar, hedef kişinin başı herhangi bir gövdeye yerleştirildiğinde yüz çevresinde oluşabilen kusurlar. Neu’un ifadesiyle: “Yüz değiştirme (face-swapping) yöntemleri genellikle, dişlerde ya da gözdeki keskin konturları üretmeyi tam olarak öğrenemiyor.” Daha yakından incelendiğinde, bunlar hafif silik görünüyor. Yapay zekanın tanıdığı orijinal veri ne kadar az olursa, taklit edilen başın yüz ifadeleri ve aydınlatma o kadar sınırlı oluyor. Görüntülü konuşmanın gerçek bir kişiyle yapılıp yapılmadığından emin olmayanlar, karşısındakinden yanağına dokunmasını isteyebilir, eğer bir telefon görüşmesi yapılıyorsa da kendinin aramasını isteyebilir.

En iyi savunma saldırıdır

Saldırıyı gerçekleştiren yapay zekayı açığa çıkaran yapay zeka halihazırda mevcut. Federal Eğitim ve Araştırma Bakanlığı tarafından finanse edilen çeşitli projeler bu konuda çalışmalarını sürdürüyor. Ancak Matthias Neu’un ifade ettiğine göre deepfake’leri tespit etmeye yönelik otomatik yöntemler henüz pratik kullanım için uygun değil. Yapay zeka yalnızca eğitim için halihazırda bilinen saldırı yöntemlerinden öğrenebiliyor, öte yandan çok çeşitli imkanlar da söz konusu. Bu nedenle de BSI, tehdit potansiyelini değerlendirebilmek için bilinen yöntemleri analiz ediyor. Tespit yöntemlerinin değerlendirilmesi ve otomatik tespitin daha da geliştirilmesi gerekiyor. BSI ayrıca sunum ve yayınlar da yapıyor, teknolojiyle ilgili bilgilendirici bir web sayfası işletiyor. Zira Neu’un da belirttiği üzere: “Alınabilecek en etkili önlemlerden biri, bu sahtecilik yöntemlerinin varlığı konusunda farkındalık yaratmak.”

© www.deutschland.de

You would like to receive regular information about Germany? Subscribe here: