Ir al contenido principal

Arma cibernética deepfakes

Los vídeos manipulados son cada vez más difíciles de detectar. Descubre aquí qué significa esto y cómo puedes protegerte de ellos.

Lauralie Mylène Schweiger, 14.11.2022
Con el "face-swapping", se simula en directo el rostro de una persona.
Con el "face-swapping", se simula en directo el rostro de una persona. © AdobeStock

Los deepfakes son ficheros de vídeo y sonido manipulados. El término se compone de "deep learning" y "fake": la inteligencia artificial aprende del material existente para imitar a las personas objetivo. De este modo, un Tom Cruise de aspecto aparentemente real en TikTok fascina a una audiencia de millones de personas, o actores de la política y los negocios se convierten en víctimas de esta peligrosa arma de la ciberdelincuencia.

@deeptomcruise High and tigh then… eyebrows ✂️ #footloose ♬ Footloose - Kenny Loggins

Fácil acceso

El principal peligro es que los deepfakes permiten la manipulación en directo. Especialmente con las videollamadas, no es necesario establecer primero la confianza, como se necesita con las llamadas de phishing. Un deepfake puede ser creado por cualquiera que disponga de un software y la correspondiente capacidad de procesamiento, que tenga unos cuantos vídeos de la persona objetivo y que pueda recrearlos de la forma más parecida posible con las condiciones de fondo e iluminación.

Cuidado con los artefactos digitales

Matthias Neu, de la Oficina Federal Alemana de Seguridad Informatica (BSI), explica cómo reconocer los deepfakes. En cuanto a los vídeos o videollamadas, señala los errores sistémicos (de visualización), los llamados "artefactos digitales". Estos pueden producirse alrededor del rostro cuando la cabeza del objetivo se coloca sobre cualquier cuerpo. "A menudo ocurre que los procesamientos de "face-swapping" no aprenden bien a producir contornos nítidos, como lo que se presentan en dientes u ojos", explica Neu. En una inspección más cercana, estos aparecen ligeramente lavados. Cuantos menos datos originales conozca la inteligencia artificial (IA), más limitadas serán las expresiones faciales y la iluminación de la cabeza imitada. Quien dude de que la conversación de vídeo es con una persona real pueden pedir a su interlocutor que se toque con el dedo la mejilla o, si se trata de una llamada telefónica, devolverle la llamada.

El ataque es la mejor defensa

Ya existe IA capaz de desenmascarar a IA atacante. Varios proyectos financiados por el Ministerio alemán de Educación e Investigación trabajan en ello. Sin embargo, Matthias Neu informa de que los métodos automatizados para detectar deepfakes aún no son adecuados para su uso práctico. La IA sólo puede aprender de los métodos de ataque ya conocidos para el entrenamiento, pero hay muchas posibilidades diferentes. Para poder evaluar el potencial de amenaza, la BSI está analizando los métodos conocidos. Hay que evaluar los métodos de detección y seguir desarrollando la detección automática. Además, la BSI organiza conferencias, publicaciones y una página temática sobre esta tecnología, señala Neu, porque: "Una de las medidas más importantes para contrarrestar deepfakes es sensibilizar sobre la existencia de estas falsificaciones".

© www.deutschland.de

¿Desea recibir regularmente información sobre Alemania? Suscríbase aquí a nuestro boletín.