Début du contenu principal.
La plateforme de médias sociaux d'Elon Musk, X, a bloqué les recherches sur Taylor Swift, après la publication en ligne de fausses images pornographiques de la chanteuse.
La plateforme de médias sociaux d'Elon Musk, X, a bloqué les recherches sur Taylor Swift, après la publication en ligne de fausses images pornographiques de la chanteuse.
Les tentatives de recherche de son nom sur la plateforme, lundi, arrivaient à un message d'erreur et invitaient les utilisateurs à réessayer leur recherche.
Les recherches de variantes de son nom telles que «taylorswift» et «Taylor Swift AI» ont généré le même message d’erreur.
De fausses images sexuellement explicites de Swift ont commencé à circuler largement la semaine dernière sur X, faisant d'elle la victime la plus célèbre d'un fléau que les plateformes technologiques et les groupes anti-abus ont du mal à résoudre.
«Il s'agit d'une mesure temporaire et réalisée avec beaucoup de prudence alors que nous accordons la priorité à la sécurité sur cette question», a précisé Joe Benarroch, responsable des opérations commerciales chez X, dans un communiqué.
Après que les images ont commencé à se répandre en ligne, les admirateurs dévoués de la chanteuse se sont rapidement mobilisés, lançant une contre-offensive sur X et un mot-clic, #ProtectTaylorSwift, pour l'inonder d'images plus positives de la vedette pop. Certains ont déclaré qu’ils signalaient des comptes partageant des hypertrucages.
Le groupe de détection d'hypertrucages Reality Defender affirme avoir suivi un déluge de matériel pornographique non consensuel représentant Swift, en particulier sur X. Certaines images ont également été diffusées sur Facebook, propriété de Meta, et sur d'autres plateformes de médias sociaux.
Les chercheurs ont trouvé au moins une vingtaine d’images uniques générées par l’intelligence artificielle. Ils affirment que le nombre d'hypertrucages explicites a augmenté au cours des dernières années, à mesure que la technologie utilisée pour produire de telles images est devenue plus accessible et plus facile à utiliser.
En 2019, un rapport publié par la société d’intelligence artificielle DeepTrace Labs montrait que ces images étaient majoritairement utilisées comme une arme contre les femmes. La plupart des victimes, selon le rapport, étaient des acteurs hollywoodiens et sud-coréens.