Aller au contenu principal

« L’IA se transforme en partenaire d’entraînement virtuelle. »

Comment le journalisme peut-il profiter de ChatGPT et compagnie ? Marie Kilg, responsable de l’innovation chez la DW, explique les opportunités et risques de l’intelligence artificielle. 

Lisa Priller-Gebhardt , 26.04.2023
Marie Kilg – journaliste et responsable de l’innovation chez la DW
Marie Kilg – journaliste et responsable de l’innovation chez la DW © David-Pierce Brill

Depuis que ChatGPT rend la puissance de l’intelligence artificielle visible dans le monde entier, l’Allemagne est aussi animée par des discussions intenses sur l’utilisation de modèles d’IA dans le journalisme.  Marie Kilg est journaliste et responsable de l’innovation chez la Deutsche Welle (DW). Elle explique ce que la technologie sait faire et ce dont elle est incapable, quels dangers elle renferme et si elle nuit au journalisme sur le long terme.

Madame Kilg, où l’IA est-elle déjà utilisée dans le quotidien des rédactions ?
Commençons par clarifier une chose : il n’y a pas « une seule et unique IA ». Le journalisme automatisé existe déjà depuis longtemps, par exemple dans les rapports boursiers ou sportifs. Les outils d’IA génératifs, qui ont désormais gagné en pertinence grâce à ChatGPT, peuvent faire plus, par exemple résumer des textes, écrire des articles et générer des images. Dans le quotidien allemand taz, il y a actuellement une colonne mensuelle avec des textes génératifs d’une personne IA fictive que j’ai développé avec une équipe. Voici un autre exemple qui n’est pas si quotidien : dans l’émission « Münchner Runde » de la Bayerischer Rundfunk, le robot Pepper discute avec les invités du studio à l’aide du programme ChatGPT.  

Quels avantages apporte l’utilisation de l’IA pour les rédactrices et rédacteurs ?
D’un côté, l’IA nous enlève des tâches qui sont peu inspirantes ou qui sont chronophages. Ainsi, elle aide à transcrire des fichiers d’interview. Cela nous évite la transcription à la main. Ce qui nous donne plus de temps pour la recherche. D’un autre côté, ChatGPT peut aider à créer des scripts et textes à l’aide de l’élaboration de points clés. Cela nous rend certes plus rapides, mais cela aide aussi certaines personnes à surmonter l’angoisse de la page blanche, car on a déjà un texte qu’il suffit de personnaliser. Cela fait de l’IA une partenaire d’entraînement virtuelle.  

Le logiciel d’IA ne sait pas faire la différence entre les faits et la fiction. Quels risques cela renferme-t-il ?
Si l’on respecte les normes journalistiques, l’IA n’est pas plus dangereuses qu’une recherche sur Google ou Wikipédia. Il n’y a un risque que si les personnes utilisent la technologie et ne comprennent pas avec quoi elles travaillent et où se situent les limites. Et oui, on peut aussi utiliser l’IA de manière malintentionnée. Le mot-clé, c’est : fake news. Nous devons nous en prémunir. 

Qui est responsable lorsque l’IA fait une erreur ?
L’évolution est si rapide que la jurisprudence est encore très en retard. Dans l’éthique de l’IA et dans les médias, on est majoritairement d’accord sur le fait que l’humain ne doit pas être destitué de sa responsabilité. L’agence de presse dpa a par exemple publié récemment des directives concernant l’utilisation de l’IA qui prévoient notamment que l’IA ne soit utilisée que « sous surveillance humaine ». 

Va-t-elle mettre les journalistes au chômage sur le long terme ?
Les métiers changent constamment, il en va de même pour le journalisme. Qui aurait pu penser, il y a quelques années, que créateur sur Tiktok pourrait être un métier du journalisme ? Mais l’IA va modifier encore plus la méthode de travail des journalistes. Cependant, il y a une bonne nouvelle : le modèle de base du journalisme est conservé. Il faut encore des personnes qui prennent le temps de récapituler des corrélations complexes de telle sorte que les autres les comprennent et puissent se forger un avis sur cette base afin de participer activement à la création de la société.  

© www.deutschland.de/fr