Ir al contenido principal

Contra los rumores y las fake news

La desinformación es un problema masivo en el mundo de la información. Dos nuevos proyectos pretenden desenmascarar las fake news con la ayuda de la IA. 

Lisa Priller-Gebhardt , 26.04.2023
El peligro de las fake news: la IA puede ayudar.
El peligro de las fake news: la IA puede ayudar. © AdobeStock / Rawpixel Ltd.

El número de fake news también ha aumentado considerablemente como consecuencia de la guerra de Ucrania, la pandemia de covid y la crisis climática. Pero no se trata de información falsa, como la que inunda por miles de millones las plataformas de medios sociales como Facebook y Twitter, sino de la difusión deliberada de noticias falsas. Es decir, fotos, textos, vídeos que se difunden a través de bots o cuentas falsas y que son difíciles de reconocer como falsos. El propósito deliberado que subyace: incitar al miedo y poner en peligro la cohesión social. 

Pero gracias a la inteligencia artificial (IA), esa desinformación no sólo se divulga, sino que también puede detectarse. Así, por ejemplo, en Alemania el Centro de Investigación de Tecnologías de la Información (FZI) ha desarrollado el proyecto DeFaktS con el apoyo del ministerio federal de Educación e Investigación (BMBF). DeFaktS responde a las siglas en alemán de “Combatir las campañas de desinformación revelando los factores y los recursos estilísticos”. 

DeFaktS - La IA alerta frente a la desinformación 

En el marco del programa se entrena a la IA para que detecte y advierta de la presencia de desinformación en servicios de redes sociales y grupos de mensajería sospechosos. Para ello, los investigadores han desarrollado numerosos conjuntos de datos a partir de la comunicación en Twitter y Telegram. De este modo, la inteligencia artificial es capaz de reconocer los recursos estilísticos típicos de las fake news, como la polarización emocional. 

En el siguiente paso, la IA adiestrada se emplea para la denominada XAI (Explainable Artificial Intelligence). Según el FZI, esta inteligencia artificial explicable no sólo debe advertir de la posible presencia de contenidos sensibles. También debe mostrar de forma comprensible los motivos que la han llevado a lanzar esta advertencia. No obstante, para los investigadores no se trata de filtrar o censurar contenidos. Los propios usuarios deben cuestionarse de forma crítica la información. “Para nosotros, este aspecto era muy importante desde el punto de vista de la educación digital de la sociedad”, señala Jonas Fegert, experto del FZI. 

noFake - Cooperación entre humanos y la IA  

El centro de proceso de datos Correctiv también quiere proporcionar a los ciudadanos una herramienta que les ayude a detectar la desinformación. Junto con la Universidad del Ruhr de Bochum y la Universidad Politécnica de Dortmund, el centro está desarrollando el proyecto “noFake”. La inteligencia humana y la artificial deben interactuar para facilitar la distinción entre los hechos y la desinformación. Para ello, las científicas y los científicos están creando sistemas de asistencia asistidos por IA, que no sólo son capaces de detectar la posible desinformación, sino que también ayudan a analizar textos e imágenes. Las ciudadanas y los ciudadanos comprometidos pueden comprobar ellos mismos la información como “crowdworkers” a través de la plataforma “Correktiv.Faktenforum”. Para ello se les forma previamente. “De este modo construimos una comunidad verificadora de la información, que aúna compromiso y estándares profesionales”, explica David Schraven, editor de Correctiv. 

© www.deutschland.de