L’intelligence artificielle (IA) suscite à la fois fascination et inquiétude. Elle possède la capacité d’accomplir de nombreuses tâches fastidieuses, mais elle peut également être détournée à des fins criminelles.
Nous avons déjà eu connaissance de ChaosGPT, une IA conçue dans le but de nuire à l’humanité. Désormais, deux nouveaux projets, FraudGPT et WormGPT, sont apparus, présentant des risques bien plus sérieux.
Les développeurs de chatbots accessibles au grand public, tels que ChatGPT et Google Bard, ont imposé des limites éthiques quant au type de contenu qu’ils peuvent produire, afin d’éviter toute utilisation détournée ou la création de contenus pouvant choquer les utilisateurs.
Cependant, ces deux nouvelles IA ne se voient imposer aucune limite de ce genre, les rendant potentiellement utilisables à des fins criminelles.
Repéré il y a quelques semaines sur un forum dédié au cybercrime, WormGPT est un chatbot similaire à FraudGPT, qui peut assister dans des attaques de type phishing en rédigeant des e-mails ou des SMS afin d’escroquer les victimes, par exemple en se faisant passer pour leur banque.
Il peut également se faire passer pour le PDG d’une entreprise, incitant un employé à payer une fausse facture.
Quant à WormGPT, il est encore plus sophistiqué et permet même de générer du code en langage de programmation Python pour créer des malwares.
Il utilise un modèle de langage puissant nommé GPT-J, qui a été créé en 2021. L’auteur de FraudGPT n’a pas précisé le modèle de langage utilisé.
Ces outils ne sont toutefois pas gratuits pour les cybercriminels. L’accès à WormGPT nécessite un abonnement mensuel de 60 euros, ou de 550 euros par an.
Quant à FraudGPT, il est encore plus onéreux, avec un abonnement mensuel à 200 dollars (environ 180 euros).
Intelligence Artificielle: Apple envisagerait de se lancer dans le domaine de l’IA avec Apple GPT