Przejdź do głównej zawartości

Deepfakes jako broń cybernetyczna

Zmanipulowane filmy wideo jest coraz trudniej rozpoznać. Dowiedz się tutaj, co to oznacza i jak możesz się przed nimi chronić.

Lauralie Mylène Schweiger, 14.11.2022
Za pomocą „face-swappingu” twarz osoby jest zamieniana w czasie rzeczywistym.
Za pomocą „face-swappingu” twarz osoby jest zamieniana w czasie rzeczywistym. © AdobeStock

Deepfakes to zmanipulowane pliki wideo, ale także pliki dźwiękowe. Termin ten jest połączeniem angielskich wyrazów „deep learning” („głębokie uczenie”) i „fake” („fałszywy"): Sztuczna inteligencja trenuje na podstawie istniejących materiałów umiejętności naśladowania docelowych osób. W ten sposób łudząco realnie wyglądający Tom Cruise fascynuje na TikToku milionową publiczność. Również podmioty ze świata polityki i biznesu stają się ofiarami tej niebezpiecznej broni cyberprzestępców.

@deeptomcruise High and tigh then… eyebrows ✂️ #footloose ♬ Footloose - Kenny Loggins

Niskie bariery dostępu

Głównym zagrożeniem jest to, że deepfakes, czyli głębokie podróbki, umożliwiają manipulację w czasie rzeczywistym. Szczególnie w przypadku połączeń wideo nie trzeba najpierw budować zaufania, co jest konieczne w przypadku telefonicznych połączeń phishingowych. Deepfake może zostać stworzony przez każdego, kto posiada oprogramowanie i odpowiednią moc obliczeniową, dysponuje kilkoma filmami wideo przedstawiającymi daną osobę, a następnie potrafi je odtworzyć w jak najbardziej podobny sposób, uwzględniając tło i oświetlenie.

Zwracanie uwagi na artefakty

Matthias Neu z Federalnego Biura ds. Bezpieczeństwa Informacji (BSI) wyjaśnia, jak wykrywać głębokie fałszywki. W odniesieniu do filmów i rozmów wideo zwraca uwagę na błędy systemowe (wyświetlania), tak zwane „artefakty”. Mogą one wystąpić wokół twarzy, kiedy głowa danej osoby jest umieszczona na dowolnym ciele. „Często zdarza się, że w przypadku metod face-swappingu brakuje umiejętności prawidłowego tworzenia ostrych konturów, takich jak te, które można znaleźć w zębach czy oku” - wyjaśnia Neu. Przy bliższym przyjrzeniu się wydają się one lekko zamazane. Im mniej oryginalnych danych zna SI, tym mniej możliwości istnieje w zakresie mimiki twarzy i oświetlenia imitowanej głowy. Kto nie jest pewien, czy rozmowa wideo jest prowadzona z prawdziwą osobą, może poprosić swojego rozmówcę o dotknięcie własnego policzka lub, jeśli jest to rozmowa telefoniczna, może sam do niej oddzwonić.

Atak jest najlepszą obroną

Istnieje już SI, która potrafi zdemaskować atakującą SI. Pracują nad tym różne projekty finansowane przez Federalne Ministerstwo Edukacji i Badań Naukowych. Jednak zautomatyzowane metody wykrywania głębokich fałszerstw nie nadają się jeszcze do praktycznego wykorzystania, donosi Matthias Neu. Sztuczna inteligencja może uczyć się tylko na podstawie znanych już metod ataku, ale istnieje wiele różnych możliwości. Aby móc ocenić potencjał zagrożenia, BSI analizuje znane metody. Należy ocenić metody wykrywania i dalej rozwijać automatyczne wykrywanie. Ponadto BSI organizuje wykłady, publikacje i stronę tematyczną na temat tej technologii, mówi Neu, ponieważ „jednym z najważniejszych środków zaradczych jest informowanie ludzi o istnieniu tych metod fałszowania.”

© www.deutschland.de

You would like to receive regular information about Germany? Subscribe here: