跳转至主目录

网络武器“深度伪造”文件(Deepfake)

越来越难识别被篡改过的视频。在这里可以了解到,这意味着什么,以及如何保护自己免受它们的侵害。

Lauralie Mylène Schweiger, 14.11.2022
通过“换脸”( Face-Swapping)技术,可以实时把人的脸换掉。
通过“换脸”( Face-Swapping)技术,可以实时把人的脸换掉。 © AdobeStock

深度伪造文件是经过篡改的视频文件,也可能是音频文件。这个概念由“深度学习”( Deep Learning)和“伪造”( Fake)两个词组合而成:人工智能对已有材料进行学习以模仿目标人物。由此,一个看似真实的Tom Cruise(汤姆·克鲁斯)在TikTok上吸引了数百万的观众 -- 政界和商界的名人也可能成为这种危险的网络犯罪武器的受害者。

@deeptomcruise High and tigh then… eyebrows ✂️ #footloose ♬ Footloose - Kenny Loggins

进入门槛低

主要的危险在于,深度伪造技术可以实现实时篡改,尤其是视频通话,它不像网络钓鱼通话那样需要首先建立信任。每个人都能进行深度伪造,只要拥有软件和适当的运算能力,并拥有目标人物的一些视频片段,就可以在背景和光线条件尽可能相似的情况下重建这些视频。

注意“伪影”

联邦信息技术安全局(BSI)的Matthias Neu解释了如何识别深度伪造文件。对于视频或视频通话,他指出系统性(显示)错误,即所谓的“伪影”问题。当目标人物的头部被安放在任意一个人的身体上时,他的面部周围就可能出现伪影。“换脸程序经常会无法正确学习如何创建清晰的轮廓,例如出现在牙齿或眼睛中的轮廓”,Neu解释说。仔细观察,它们看起来有点褪色。 人工智能知道的原始数据越少,被模仿的头部的面部表情和光线就越有限。 如果不确定是否在与真人进行视频通话,可以让通话对方轻拍自己的脸颊,或者,如果是电话的话,可以自己回拨过去。

进攻是最好的防守

已经有人工智能可以揭露实施攻击的人工智能。德国联邦教育和研究部资助的几个项目正在针对这方面开展工作。不过,按照Matthias Neu的说法,自动检测深度伪造的方法还无法投入实际应用,人工智能只能从已知的、被用于训练的攻击方法中进行学习,但还存在许多不同的可能性。为了能够估计潜在威胁,BSI对已知的方法进行分析。必须对检测方法进行评估,才能进一步发展自动识别技术。 此外,BSI 还组织讲座,发表文章,并建立了一个有关技术的主题网页,Neu介绍说。因为 “最重要的对策之一就是让人们了解这种伪造技术的存在”。

© www.deutschland.de

You would like to receive regular information about Germany? Subscribe here: