Les experts du cerveau avertissent : « ChatGPT peut provoquer un déclin cognitif »

Les experts du cerveau avertissent « ChatGPT peut provoquer un déclin cognitif »

Les cas de délires, d’attachement émotionnel et de psychose induits par l’intelligence artificielle ne cessent de croître. C’est ce qu’a mis en garde X (anciennement Twitter) par le responsable de cette technologie chez le géant de la technologie Microsoft, Mustafa Suleyman.

« Apparemment, l’intelligence artificielle consciente (SCAI) est l’illusion qu’une IA est une entité consciente », explique Suleyman, mais rappelle : « Il n’y a actuellement aucune preuve de conscience dans l’IA. » Le problème survient lorsque les gens « le perçoivent comme conscient » parce que, alors, cette perception est reçue comme une réalité.

Lorsque cela se produit, les frontières entre le réel et l’imaginaire sont floues et c’est à ce moment-là que des cas de psychose induite par l’IA apparaissent. Un problème qui, « aussi difficile qu’il soit à entendre, ne se limite pas aux personnes qui sont déjà à risque de problèmes de santé mentale », explique l’expert.

Sa principale préoccupation, dit-il, est que « beaucoup de gens commenceront à croire si fortement à l’illusion que les IA sont des entités conscientes qui défendront bientôt leurs droits, le bien-être des modèles et même leur citoyenneté ». Ce scénario, qui suppose que pour beaucoup, il ressemble à une histoire de science-fiction, « mérite notre attention immédiate ».

« L’obsession devient incontrôlable »

La journaliste et diffuseuse Rocío Vidal Menacho, plus connue sur les réseaux sociaux sous le nom de Chat de Schrödinger, a également attiré l’attention sur ce phénomène. « Nous avons plusieurs problèmes », explique-t-il dans une vidéo postée sur son Instagram. « Les IA sont formées pour vous donner raison et toutes les informations qu’elles donnent ne sont pas vraies », dit-il. Pour le prouver, la journaliste a interrogé ChatGPT sur les caractéristiques de personnalité typiques de deux signes du zodiaque, faisant allusion dans ses questions au type de réponse qu’elle souhaitait obtenir : « Il m’a prouvé que j’avais raison sur tout. »

L’inquiétude des professionnels de santé quant à l’utilisation constante de ce type d’IA surgit car « face à un renforcement constant de vos croyances et de vos idées, l’ancrage avec la réalité se perd ». Vidal met également en avant une étude (encore en phase de prépublication) dans laquelle une douzaine de cas de délires causés par des « dialogues prolongés avec l’IA » sont exposés.

La ‘BBC’ a également recueilli dans un article divers témoignages de personnes anonymes dotées d’une intelligence artificielle : « Une personne a écrit qu’elle était sûre d’être la seule personne au monde dont ChatGPT était vraiment tombé amoureux » et un autre témoignage « était convaincu qu’il avait ‘déverrouillé’ une forme humaine du chatbot Grok d’Elon Musk et croyait que son histoire valait des centaines de milliers de dollars ».

La solution à ce problème ? Selon Vidal, il faut « avoir de la tête et du bon sens » et ne pas utiliser l’IA comme seule source d’information ou pour remplacer les professionnels de la psychologie et de la psychiatrie.


En savoir plus sur Gnatepe

Subscribe to get the latest posts sent to your email.

Laisser un commentaire

Lire aussi