перейти к основной теме

Кибероружие Deepfakes

Видео с манипуляциями становится все труднее обнаружить. Рассказываем, в чем смысл технологии и как можно себя защитить.

Лорали Милен Швайгер, 14.11.2022
«Face-Swapping» позволяет правдоподобно подменить лицо.
«Face-Swapping» позволяет правдоподобно подменить лицо. © AdobeStock

Дипфейки — это обработанные видео, а также звуковые файлы. Термин состоит из двух частей – «глубокое обучение» (deep learning) и «подделки» (fake). Искусственный интеллект учится на существующем материале, чтобы имитировать движения и черты лица специально отобранного объекта. В результате получаем иллюзионистично-реалистичного Тома Круза, который выступает перед многомиллионной аудиторией в TikTok. Но дипфейки могут служить и опасным оружием киберпреступности, жертвой которого становятся представители политики и бизнеса.

@deeptomcruise High and tigh then… eyebrows ✂️ #footloose ♬ Footloose - Kenny Loggins

Низкие барьеры для входа

Главная опасность заключается в том, что дипфейки делают возможными манипуляции людьми в реальном времени. Если вы получаете видеозвонок, нужно проявлять такую же бдительность, как и при фишинговых звонках. Ведь любой, у кого есть программное обеспечение и соответствующая вычислительная мощность, может взять несколько видеороликов с выбранным в качестве объекта человеком, а затем может воспроизвести их с максимально похожими фоном и условиями освещения. Это и будет дипфейк.

Остерегайтесь артефактов

Маттиас Ной из Федерального ведомства по информационной безопасности (BSI) объясняет, как распознать дипфейки. Что касается видеороликов или видеозвонков, то он советует обращать внимание на системные (демонстративные) ошибки, так называемые «артефакты». Например, берется лицо объекта дипфейка и переставляется на лицо любого другого человека. «Часто бывает так, что алгоритмы подмены лица не учитывают должным образом четкие контуры и тени, которые находятся на зубах или в области глаз», — объясняет Ной. При ближайшем рассмотрении они оказываются слегка размытыми. Чем меньше исходных данных знает ИИ, тем более ограничены мимика и освещение имитируемой головы. Если вы не уверены, что видеозвонок совершается реальным человеком, вы можете попросить человека, с которым вы разговариваете, коснуться своей щеки или, если это телефонный звонок, перезвонить самому.

Лучшая защита – нападение

Уже существует ИИ, который может разоблачить атакующий ИИ. Над этим работают различные проекты, финансируемые Федеральным министерством образования и исследований. Однако, по словам Матиаса Ноя, автоматизированные методы обнаружения дипфейков пока не подходят для практического использования. ИИ может учиться только на уже известных для обучения методах атаки, но есть много разных возможностей. Поэтому, чтобы иметь возможность оценить потенциал угрозы, BSI анализирует уже существующие методы. Потребуется дальнейшая разработка автоматизированного обнаружения. Кроме того, BSI организует лекции, публикации и тематические страницы по технологии, говорит Ной, потому что: «Одной из наиболее важных мер противодействия является предоставление информации о существовании этих процессов производства дипфейков».

© www.deutschland.de

You would like to receive regular information about Germany? Subscribe here: