Le p0rn0 deepfake monte en flèche : de plus en plus d’utilisateurs “déshabillent” les photos de femmes avec l’IA

Les applications et les sites Web qui utilisent l’intelligence artificielle pour déshabiller les femmes sur les photos gagnent en popularité, selon les chercheurs.

Rien qu’en septembre, 24 millions de personnes ont visité des sites Web de nµdité, selon la société d’analyse des médias sociaux Graphika.

Beaucoup de ces services de nµdification, ou de « nµdification », utilisent les médias sociaux populaires pour le marketing, selon Graphika. Par exemple, depuis le début de l’année, le nombre de liens faisant la publicité d’applications de nµdité a augmenté de plus de 2 400 % sur les réseaux sociaux, y compris sur X et Reddit, ont déclaré les chercheurs.

Cette IA a franchi la ligne : elle est capable de générer des images en utilisant vos pensées

Les services utilisent l’IA pour recréer une image afin que la personne soit nµe. De nombreux services ne travaillent qu’avec des femmes.

Ces applications font partie d’une tendance troublante de la p0rn0graphie non consensuelle développée et distribuée en raison des progrès de l’intelligence artificielle, un type de média fabriqué connu sous le nom de deepfake.

Leur prolifération se heurte à de sérieux obstacles juridiques et éthiques, car les images sont souvent prises sur les réseaux sociaux et diffusées sans le consentement, le contrôle ou la connaissance de la personne.

La montée en popularité correspond à la publication de divers modèles de diffusion open-source, ou intelligence artificielle, qui peuvent créer des images bien supérieures à celles créées il y a quelques années à peine, a déclaré Graphika.

Parce qu’ils sont open-source, les modèles utilisés par les développeurs d’applications sont disponibles gratuitement.

« Vous pouvez créer quelque chose qui a l’air réaliste », a déclaré Santiago Lakatos, analyste chez Graphika, notant que les deepfakes précédents étaient souvent flous.

Une image publiée sur X faisant la promotion d’une application de nµdité utilisait un langage suggérant que les clients pouvaient créer des images nµes, puis les envoyer à la personne dont l’image était nµe numériquement, incitant au harcèlement.

TikTok : Comment faire une vidéo avec des photos de ma galerie facilement dans l’application

L’une des applications, quant à elle, a payé pour du contenu sponsorisé sur YouTube de Google, et elle apparaît en premier lorsqu’elle est recherchée avec le mot « nudify ».

Un porte-parole de Google a déclaré que la société n’autorisait pas les publicités « contenant du contenu s3xuellement explicite ». « Nous avons examiné les publicités en question et supprimons celles qui enfreignent nos politiques », a déclaré la société.

Un porte-parole de Reddit a déclaré que le site interdisait tout partage non consensuel de faux contenus sexuellement explicites et avait interdit plusieurs domaines à la suite de l’enquête. X n’a pas répondu à une demande de commentaire.

En plus de l’augmentation du trafic, les services, dont certains facturent 9,99 $ par mois, affirment sur leurs sites Web qu’ils attirent beaucoup de clients. « Ils font beaucoup d’affaires », a déclaré Lakatos.

Décrivant l’une des applications de déshabillage, il a déclaré : « Si vous les croyez sur parole, leur site Web annonce qu’il compte plus d’un millier d’utilisateurs par jour. »

La p0rn0graphie non consensuelle de personnalités publiques est depuis longtemps un fléau d’Internet, mais les spécialistes de la protection de la vie privée sont de plus en plus préoccupés par le fait que les progrès de la technologie de l’IA ont rendu les logiciels deepfake plus faciles et plus efficaces.

« Nous constatons que de plus en plus de ces activités sont le fait de personnes ordinaires ayant des objectifs communs », a déclaré Eva Galperin, directrice de la cybersécurité à l’Electronic Frontier Foundation. « On le voit chez les lycéens et les gens qui sont à l’université. »

De nombreuses victimes n’ont jamais entendu parler des images, mais même celles qui le font peuvent avoir du mal à obtenir des forces de l’ordre qu’elles enquêtent ou trouvent des fonds pour intenter une action en justice, a déclaré Galperin.

Il n’existe actuellement aucune loi fédérale interdisant la création de p0rn0graphie deepfake, bien que le gouvernement américain interdise la génération de telles images d’enfants.

En novembre, un pédopsychiatre de Caroline du Nord a été condamné à 40 ans de prison pour avoir utilisé des applications de nµdité sur des photos de ses patients, la première poursuite de ce type en vertu de la loi interdisant la génération de deepfakes de matériel pédopornographique.

TikTok a bloqué le mot-clé « stripping », un terme de recherche populaire associé aux services, avertissant toute personne recherchant le mot qu’il « peut être associé à un comportement ou à un contenu qui enfreint nos directives », selon l’application.

Un représentant de TikTok a refusé de donner plus de détails. En réponse à ces questions, Meta Platforms a également commencé à bloquer les mots-clés associés à la recherche d’applications de nµdité. Un porte-parole s’est refusé à tout commentaire.