Soyez prudent sur WhatsApp : ils copient la voix de votre mère, utilisent l’IA pour créer l’arnaque et volent de l’argent à la banque

Une vidéo d’un jeune homme est devenue virale montrant comment sa mère lui envoie une série d’audios via WhatsApp, lui demandant de l’argent. Cependant, derrière toute cette situation se cache l’intelligence artificielle, copiant sa voix pour faire croire à son fils qu’il est dans une situation où il a besoin d’argent rapidement, ce qui est également possible de voler des comptes dans l’application.

Ce type d’attaque est connu sous le nom de visihing, dans lequel l’IA est utilisée pour cloner la voix d’une personne afin de se faire passer pour son identité et envoyer un faux message pour demander de l’argent ou des données personnelles, le tout justifié par une demande proche de la victime.

À quoi ressemble l’arnaque au clonage vocal viral sur WhatsApp ?

Dans la vidéo publiée, un jeune homme montre la discussion qu’il a avec sa mère sur l’application Meta, il y a une série d’audios dans lesquels elle lui demande d’urgence d’envoyer de l’argent sur un compte.

Face à cette situation, il répond à sa supposée mère qui effectue le virement sur le compte habituel en ce moment. Cependant, d’après les audios, ils insistent pour qu’elle ne le fasse pas parce qu’elle n’a pas la carte pour retirer l’argent de ce compte habituel et lui envoyer les données de transfert à une autre personne, qui est censée être un de ses amis.

Toute cette situation est enregistrée avec la mère à côté d’elle et dans les audios, il y a des erreurs de diction, qui sont normalement générées par le clonage d’une voix avec une intelligence artificielle, ce qui a permis à la victime d’identifier la fausseté de l’attaque.

Bien que ce qui se passe puisse sembler facile à saisir et à ne pas tomber dans le piège, ces types de menaces sont de plus en plus polis et si les utilisateurs révèlent des données personnelles, il sera beaucoup plus facile pour les cyberattaquants de personnaliser les audios pour augmenter la perception de la réalité de la situation.

Comment fonctionne le clonage vocal par IA

Le clonage vocal utilise des algorithmes d’intelligence artificielle et des réseaux neuronaux pour créer un modèle synthétique de la voix d’une personne. Selon les experts en cybersécurité, le processus n’a besoin que de quelques secondes d’enregistrement, parfois aussi peu que trois, pour générer une réplique qui imite le ton, le timbre et les inflexions de la parole.

Dans le cas du vishing (usurpation d’identité par la voix), les escrocs capturent l’audio de la victime par le biais des réseaux sociaux, de vidéos publiques ou même en passant un faux appel pour enregistrer la voix. Une fois qu’un échantillon audio est disponible, les escrocs utilisent cette technologie pour générer des mots ou des phrases que la personne d’origine n’a jamais prononcés.

Pour compléter cette arnaque, les cybercriminels volent des comptes WhatsApp et contactent les victimes. Pour effectuer ce vol, les escrocs obtiennent le numéro de téléphone de la victime, puis tentent d’enregistrer le compte sur un autre appareil. Cela génère un code de vérification que WhatsApp envoie par SMS au numéro de la victime par mesure de sécurité.

C’est là que les criminels trompent généralement la personne, en lui envoyant un message urgent qui la persuade de partager le code à six chiffres. Si la victime tombe dans le piège, l’escroc prend le contrôle du compte WhatsApp.

Avec le compte volé et l’accès aux contacts, l’escroc envoie des messages texte et des audios clonés à la famille et aux amis de la victime, demandant de l’argent urgent par des méthodes numériques.

La familiarité de la voix d’un être cher et l’accès à son compte WhatsApp rendent la demande d’aide authentique, ce qui fait que de nombreuses personnes tombent dans le piège de l’arnaque.

Comment se protéger contre le clonage de voix et le piratage de compte

Limitez l’utilisation des enregistrements vocaux sur les médias sociaux et les plateformes publiques. Moins il y a de contenu vocal disponible, plus il sera difficile pour les criminels de cloner la voix.

Configurez des mots-clés familiers pour confirmer l’identité en cas d’urgence. Des questions simples, telles que « quel est le plat préféré de grand-mère ? » peuvent aider à vérifier si vous parlez vraiment à la bonne personne.

Évitez de partager les codes de vérification WhatsApp. Si vous recevez un message vous demandant le code, il s’agit presque certainement d’une arnaque. WhatsApp ne demande pas ces données par message.

Gardez les appareils à jour et sécurisés. La mise à jour des logiciels et l’utilisation de mots de passe forts réduisent les risques de subir une cyberattaque. L’authentification multifactorielle est également une mesure efficace pour protéger les comptes en ligne.

Partagez sur les réseaux sociaux

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.