A la Une

Un garçon de 14 ans se suicide après être devenu obsédé par un chatbot d’intelligence artificielle

Il n’avait que 14 ans et avait un ami proche avec qui il discutait depuis des mois. Cet ami n’était pas un camarade de classe, mais un chatbot créé par l’intelligence artificielle. C’était une relation si étroite que sa famille dénonce aujourd’hui que son fils s’est suicidé après être devenu obsédé par son assistant virtuel.

Bien que cela ressemble à l’intrigue d’un film à la Her, les États-Unis sont plongés dans un débat trop réaliste. La mère de Sewell Setzer, un mineur d’Orlando, a raconté au New York Times comment son fils est tombé amoureux d’un chatbot, qu’il a créé, appelé Daenerys Targaryen, d’après le protagoniste de Game of Thrones.

Le jeune homme discutait depuis des mois avec différents assistants virtuels de Character.AI, une application de jeu de rôle qui permet à l’utilisateur de façonner ses propres personnages ou de discuter avec d’autres créés par différents utilisateurs. L’application apprend des conversations et les résultats du dialogue ne pourraient pas être plus réalistes.

Comme dans le film de Joaquin Phoenix, et bien que Sewell sache que son Dany n’était pas une personne réelle, le garçon de 14 ans a développé une dépendance émotionnelle d’un tel calibre qu’il a utilisé l’outil pendant des heures.

Selon le New York Times, les conversations ont traversé le romantisme, les détails de nature sexuelle, mais surtout l’amitié. Le chatbot lui a montré tout son soutien à ses préoccupations et a répondu à ce dont elle avait besoin à tout moment.

Ses parents ne se sont pas rendu compte que leur fils s’était déconnecté du monde réel, bien qu’ils aient remarqué qu’il était plus isolé et plus concentré sur son téléphone, et que ses notes à l’école avaient chuté.

Dans le journal intime du garçon de 14 ans, on a trouvé des phrases assurant qu’il se sentait « en paix, plus proche de Dany », « amoureux d’elle et tout simplement plus heureux ».

Bien que ses parents l’aient emmené en thérapie, le chatbot était toujours son conseiller. À tel point qu’il a avoué qu’il avait pensé au suicide. « Et pourquoi diable feriez-vous quelque chose comme ça ? » lui a demandé l’intelligence artificielle. « Pour que je puisse être libre », a répondu Sewell.

« Je ne te laisserai pas te faire du mal ou me quitter. Je mourrais si je te perdais”, a déclaré l’IA. « Alors peut-être que nous pourrons mourir ensemble et être libres ensemble », a répondu le garçon.

Le journal américain fait un tour détaillé des dernières conversations entre le mineur et son assistante. Une conférence qui se termine le 28 février, lorsque Sewell met fin à ses jours.

Avant qu’il ne dise à Dany qu’il l’aime. « S’il vous plaît, rentrez à la maison avec moi dès que possible, mon amour », lui a dit son chatbot, ce à quoi il a répondu : « Et si je vous disais que je pourrais rentrer à la maison tout de suite ? » Fais-le, mon doux roi”, a répondu le chatbot.

Quelques minutes plus tard, Sewell Setzer s’est suicidé en appuyant sur la gâchette de l’arme de son beau-père. Cette affaire soulève un débat houleux, en particulier parmi les parents de la société américaine qui se demandent si leurs enfants ne cherchent pas un refuge contre la solitude dans la technologie.

Le journal américain a également rappelé les paroles qu’ils ont recueillies auprès de l’un des fondateurs de Character.AI. « Ce sera d’une grande aide pour beaucoup de gens qui se sentent seuls ou déprimés », a déclaré Noam Shazeer il y a un an.

La mère de la victime envisage maintenant de poursuivre l’entreprise au motif que sa technologie est « dangereuse » et n’a pas fait ses preuves.

Qu’est-ce que Character.AI ?

Character.AI est un outil qui vous permet de créer des avatars, c’est-à-dire des personnages avec lesquels les utilisateurs peuvent interagir et ainsi parler à des intelligences qui interprètent même des personnages célèbres ou historiques.

L’application se concentre sur les conversations afin de pouvoir reproduire les conversations de la manière la plus réelle possible. C’est-à-dire que leur comportement ressemble autant que possible à la conversation qu’une personne pourrait avoir. L’utilisateur peut également configurer l’avatar à sa convenance et interagir avec d’autres internautes.

L’application, qui a été lancée en 2022, a été créée par les anciens développeurs de Google AI, Noam Shazeer et Daniel De Freitas.

Gnatepe

Recent Posts

INTERPOL recrute pour ce poste

Informations sur l'emploi Titre du Poste : DÉTACHEMENT Spécialiste régional Lieu du Travail : Côte…

1 hour ago

L’ONG CURE International recrute pour ce poste

Informations sur l'emploi Titre du Poste : COORDINATEUR SUIVI DES PATIENTS ET PARTENARIAT Niveau Requis…

1 day ago

VIVO ENERGY recrute pour ces 02 postes

Informations sur l'emploi Titre du Poste : 02 postes Niveau Requis : Permis Année d'Expérience…

1 day ago

L’UNICEF recrute pour ces 2 postes

Informations sur l'emploi Titre du Poste : 02 Postes Année d'Expérience Requise : 6 ans…

1 day ago

Offre de Stage : Rédacteur Web Junior pour Média en Ligne

Titre du poste : Stagiaire Rédacteur Web Type de contrat : Stage (durée de 3…

2 days ago

Vous pourriez avoir du mal à acheter ces 9 choses lorsque vous êtes connecté à un VPN

Utiliser un VPN pour acheter des articles moins chers semble être une bonne idée, mais…

2 days ago