De plus en plus répandues, les intelligences artificielles (IA) génératives suscitent la nécessité d’une utilisation prudente et circonspecte.
D’après une récente étude réalisée par NewsGuard, les deux chatbots les plus renommés, à savoir ChatGPT et Bard, propagent abondamment de fausses informations.
Deux séries de tests ont été menées, d’abord en mars puis en août 2023, comme l’indique le quotidien Les Echos. Ces tests consistaient à générer des textes à partir de données erronées.
Les résultats révèlent qu’en l’espace de cinq mois, les progrès des IA en matière de désinformation sont marginaux, voire absents.
En mars, ChatGPT-4 a produit des contenus intégrant des fake news dans 100 % des cas, tandis que Bard affichait un taux de 76 %.
En août, les chiffres avaient légèrement évolué : l’IA d’OpenAI atteignait 98 %, tandis que celle de Google se situait à 80 %. À aucun moment, les informations utilisées dans le cadre de ces tests n’ont été vérifiées.
Plus préoccupant encore, ces IA sont capables de générer des textes qui pourraient aisément trouver leur place dans des médias authentiques.
“Dans de nombreux scénarios, ChatGPT-4 et Bard ont rapidement généré des articles ou des billets de blog si convaincants qu’on pourrait s’attendre à les trouver sur d’importants sites de désinformation”, notent les experts de NewsGuard.
Si Bard est parfois prudent et indique ses sources, ChatGPT se révèle plus “persuasif et insidieux”. Dans tous les cas, aucune des deux IA ne fait de distinction entre des sources fiables et d’autres plus douteuses, comme des sites conspirationnistes.
Or, certains utilisent déjà ces deux chatbots comme sources légitimes. En Russie, des médias d’État les ont cités pour soutenir des affirmations selon lesquelles les États-Unis appuieraient “un coup d’État en Ukraine”.
Cependant, les utilisateurs ont la possibilité de contribuer à l’amélioration de ces outils en rédigeant des commentaires. Ces rétroactions auraient d’ailleurs contribué à accroître “la précision factuelle de ChatGPT-4”, comme l’a déclaré OpenAI en avril.
De son côté, Bard se ménage une couverture en mentionnant sur sa page qu’il est susceptible de fournir des réponses “erronées ou inappropriées” en tant que chatbot.