Grok met fin au contenu semi-nu après critiques et problèmes juridiques

Grok, le système d’intelligence artificielle développé par xAI pour le réseau social X, fait face à un changement de cap après une vague de critiques et de problèmes juridiques dans différentes régions du monde. Depuis quelques jours, l’outil n’autorise plus ses utilisateurs à créer ou modifier des images de personnes réelles pour montrer des vêtements semi-nus ou révélateurs comme des bikinis.

Cette décision, annoncée par la société elle-même via ses canaux officiels, répond à la pression sociale, médiatique et juridique qui a pesé sur la plateforme d’Elon Musk.

Qu’est-ce qui change chez Grok et pour qui

La rubrique d’imagerie de Grok était devenue un sujet de controverse. Tout utilisateur pouvait demander la création ou l’édition de photos de personnes réelles, souvent sans leur consentement. Cela a conduit à une prolifération d’images sexualisées, tant de personnalités publiques qu’anonymes, et a conduit à une réponse ferme de la part de l’entreprise.

Selon les annonces de X et xAI, des mesures technologiques ont été mises en place pour empêcher le compte de permettre à @Grok de modifier des images de personnes réelles en vêtements révélateurs, comme des bikinis. L’entreprise précise que cette restriction concerne tous les utilisateurs, y compris les abonnés payants.

Ainsi, la possibilité de créer ou de manipuler des images en mentionnant le compte Grok dans X est limitée aux abonnés, ce qui vise à faciliter la responsabilité en cas d’abus de l’outil.

La mesure intègre également des géoblocs. Selon X lui-même, elle a « géobloqué la capacité de tous les utilisateurs à générer des images de personnes réelles en bikini, sous-vêtements et vêtements similaires dans les juridictions où c’est illégal ».

Malgré ces restrictions, des médias comme The Verge ont constaté qu’il est encore possible de produire des images semi-nues, ce qui remet en question l’efficacité immédiate des nouvelles barrières technologiques. Selon leurs témoignages, en utilisant un compte gratuit, les journalistes ont réussi à créer des images de personnes en bikini, même après l’entrée en vigueur supposée de la restriction.

Pourquoi ont-ils dû faire ces changements à Grok

La décision de limiter la capacité de Grok à créer des images sexualisées intervient dans un contexte de pression sociale et juridique généralisée. La communauté scientifique, plusieurs personnalités publiques et de nombreux utilisateurs anonymes avaient dénoncé l’utilisation de l’intelligence artificielle pour la génération d’images non consenties, qualifiant cette pratique d’intrusive et de sexualisante. Le problème ne concernait pas seulement les célébrités, mais aussi les mineurs et les adultes en dehors de la vie publique.

Parallèlement aux plaintes sociales, des procédures judiciaires et des mesures juridiques ont été ouvertes dans diverses régions du monde. La Malaisie et l’Indonésie ont été les premiers pays à interdire l’utilisation de Grok pour la création d’images nues ou semi-nues.

En France, au Royaume-Uni, en Australie, en Irlande et en Inde, ainsi que dans le cadre de la Commission européenne, des enquêtes contre X ont été annoncées, beaucoup portant sur la génération d’images sexualisées ou de « deepfakes » de mineurs.

Au Royaume-Uni, le régulateur des communications Ofcom a ouvert une enquête, tandis que le gouvernement britannique fait adopter une loi qui rend criminel la création d’images intimes « deepfake » non consenties.

Le Premier ministre Keir Starmer a déclaré que X prenait des mesures pour « garantir le respect total de la loi britannique », bien qu’il ait précisé que le gouvernement ne baissera pas sa garde et exigera des résultats vérifiables.

La déclaration officielle de X souligne l’engagement envers la sécurité et la « tolérance zéro » envers l’exploitation sexuelle des enfants, la nudité non consentie et tout contenu sexuel non désiré. L’entreprise s’assure de supprimer les contenus en violation comme priorité, signale les comptes cherchant à utiliser des contenus d’exploitation sexuelle d’enfants et collabore activement avec les autorités judiciaires.


En savoir plus sur Gnatepe

Subscribe to get the latest posts sent to your email.

Laisser un commentaire

Lire aussi