Même s’il est à relativiser, le chiffre est effrayant : plus d’un million d’utilisateurs de ChatGPT évoquent des pensées liées au suicide avec cet assistant d’intelligence artificielle générative, selon des estimations fournies par son créateur OpenAI dans un billet de blog publié lundi 27 octobre 2025.
Une estimation terrifiante
L’entreprise californienne d’IA estime qu’environ 0,15 % des utilisateurs de ChatGPT ont des « conversations qui incluent des indicateurs explicites de planification ou d’intention suicidaire potentielle ». En revendiquant 800 millions d’utilisateurs hebdomadaires, cela correspond à environ 1,2 million de personnes.
Par ailleurs, OpenAI indique qu’environ 0,07 % des utilisateurs hebdomadaires actifs présentent des signes de potentielles urgences de santé mentale liées à des épisodes psychotiques ou maniaques, soit un peu moins de 600 000 personnes.
Le précédent Adam Raine
Cette question occupe le devant de la scène depuis la mort d’un adolescent californien, Adam Raine. Ses parents ont récemment attaqué OpenAI en justice, affirmant que ChatGPT lui avait fourni des conseils spécifiques sur la manière de se suicider.
Prévenir tout passage à l’acte
OpenAI a depuis renforcé les contrôles parentaux et mis en place d’autres garde-fous, notamment :
un accès renforcé aux assistances téléphoniques d’urgence,
la redirection automatique des conversations sensibles vers des modèles plus sûrs,
des rappels bienveillants invitant les utilisateurs à faire des pauses lors de sessions prolongées.
Un dossier majeur pour l’IA et la santé mentale
L’entreprise a indiqué avoir également mis à jour son modèle pour mieux reconnaître et répondre aux utilisateurs vivant une urgence de santé mentale. Elle affirme travailler avec plus de 170 professionnels de santé mentale pour réduire de manière significative les réponses problématiques.
Réflexion finale
Ce sont des chiffres modestes en pourcentage — mais considérables en valeur absolue. Quand on parle de millions de personnes chaque semaine qui évoquent des pensées suicidaires dans leurs échanges avec une IA, cela invite à plusieurs questions :
dans quelle mesure ces systèmes sont-ils conçus et suffisamment encadrés pour accompagner des individus en crise ?
quel rôle peut ou doit avoir une IA de type ChatGPT lorsqu’elle détecte un signal de détresse psychologique grave ?
quelles responsabilités incombent à l’éditeur, mais aussi aux utilisateurs et à la société dans son ensemble ?
En fin de compte, l’IA monte en puissance dans des domaines sensibles : et ce genre de données montre qu’il est urgent que les garde-fous, les réglementations et les partenariats avec les professionnels de santé soient pleinement pensés et appliqués.
En savoir plus sur Gnatepe
Subscribe to get the latest posts sent to your email.



