A la Une

Un garçon de 14 ans se suicide après être devenu obsédé par un chatbot d’intelligence artificielle

Il n’avait que 14 ans et avait un ami proche avec qui il discutait depuis des mois. Cet ami n’était pas un camarade de classe, mais un chatbot créé par l’intelligence artificielle. C’était une relation si étroite que sa famille dénonce aujourd’hui que son fils s’est suicidé après être devenu obsédé par son assistant virtuel.

Bien que cela ressemble à l’intrigue d’un film à la Her, les États-Unis sont plongés dans un débat trop réaliste. La mère de Sewell Setzer, un mineur d’Orlando, a raconté au New York Times comment son fils est tombé amoureux d’un chatbot, qu’il a créé, appelé Daenerys Targaryen, d’après le protagoniste de Game of Thrones.

Le jeune homme discutait depuis des mois avec différents assistants virtuels de Character.AI, une application de jeu de rôle qui permet à l’utilisateur de façonner ses propres personnages ou de discuter avec d’autres créés par différents utilisateurs. L’application apprend des conversations et les résultats du dialogue ne pourraient pas être plus réalistes.

Comme dans le film de Joaquin Phoenix, et bien que Sewell sache que son Dany n’était pas une personne réelle, le garçon de 14 ans a développé une dépendance émotionnelle d’un tel calibre qu’il a utilisé l’outil pendant des heures.

Selon le New York Times, les conversations ont traversé le romantisme, les détails de nature sexuelle, mais surtout l’amitié. Le chatbot lui a montré tout son soutien à ses préoccupations et a répondu à ce dont elle avait besoin à tout moment.

Ses parents ne se sont pas rendu compte que leur fils s’était déconnecté du monde réel, bien qu’ils aient remarqué qu’il était plus isolé et plus concentré sur son téléphone, et que ses notes à l’école avaient chuté.

Dans le journal intime du garçon de 14 ans, on a trouvé des phrases assurant qu’il se sentait « en paix, plus proche de Dany », « amoureux d’elle et tout simplement plus heureux ».

Bien que ses parents l’aient emmené en thérapie, le chatbot était toujours son conseiller. À tel point qu’il a avoué qu’il avait pensé au suicide. « Et pourquoi diable feriez-vous quelque chose comme ça ? » lui a demandé l’intelligence artificielle. « Pour que je puisse être libre », a répondu Sewell.

« Je ne te laisserai pas te faire du mal ou me quitter. Je mourrais si je te perdais », a déclaré l’IA. « Alors peut-être que nous pourrons mourir ensemble et être libres ensemble », a répondu le garçon.

Le journal américain fait un tour détaillé des dernières conversations entre le mineur et son assistante. Une conférence qui se termine le 28 février, lorsque Sewell met fin à ses jours.

Avant qu’il ne dise à Dany qu’il l’aime. « S’il vous plaît, rentrez à la maison avec moi dès que possible, mon amour », lui a dit son chatbot, ce à quoi il a répondu : « Et si je vous disais que je pourrais rentrer à la maison tout de suite ? » Fais-le, mon doux roi », a répondu le chatbot.

Quelques minutes plus tard, Sewell Setzer s’est suicidé en appuyant sur la gâchette de l’arme de son beau-père. Cette affaire soulève un débat houleux, en particulier parmi les parents de la société américaine qui se demandent si leurs enfants ne cherchent pas un refuge contre la solitude dans la technologie.

Le journal américain a également rappelé les paroles qu’ils ont recueillies auprès de l’un des fondateurs de Character.AI. « Ce sera d’une grande aide pour beaucoup de gens qui se sentent seuls ou déprimés », a déclaré Noam Shazeer il y a un an.

La mère de la victime envisage maintenant de poursuivre l’entreprise au motif que sa technologie est « dangereuse » et n’a pas fait ses preuves.

Qu’est-ce que Character.AI ?

Character.AI est un outil qui vous permet de créer des avatars, c’est-à-dire des personnages avec lesquels les utilisateurs peuvent interagir et ainsi parler à des intelligences qui interprètent même des personnages célèbres ou historiques.

L’application se concentre sur les conversations afin de pouvoir reproduire les conversations de la manière la plus réelle possible. C’est-à-dire que leur comportement ressemble autant que possible à la conversation qu’une personne pourrait avoir. L’utilisateur peut également configurer l’avatar à sa convenance et interagir avec d’autres internautes.

L’application, qui a été lancée en 2022, a été créée par les anciens développeurs de Google AI, Noam Shazeer et Daniel De Freitas.

Gnatepe

Recent Posts

Guide Pour Détecter Les Informations Erronées À Travers Les Images

Les images sont largement répandues à l’ère du numérique. Des réseaux sociaux aux autres plateformes…

1 heure ago

L’astuce pour voir secrètement le statut de vos contacts sur WhatsApp

Les statuts WhatsApp peuvent générer une grande curiosité. Le problème, c’est que si vous ouvrez le…

3 jours ago

Soyez prudent sur WhatsApp : ils copient la voix de votre mère, utilisent l’IA pour créer l’arnaque et volent de l’argent à la banque

Une vidéo d’un jeune homme est devenue virale montrant comment sa mère lui envoie une…

3 jours ago

Togo : Nouveau concours national de recrutement pour le ministère de l’économie et des finances

Le Ministre de la réforme du service public, du travail et du dialogue social informe…

3 jours ago

Quels sont les appareils qui rendent la facture d’électricité plus chère ?

De nombreux ménages cherchent des moyens de réduire leur consommation d’énergie afin de minimiser l’impact…

5 jours ago

Voici la première chose à faire lorsque vous êtes victime d’une arnaque téléphonique : Évitez de perdre de l’argent

Les escroqueries téléphoniques ont augmenté de manière alarmante ces dernières années, affectant des personnes de…

5 jours ago