Début du contenu principal.
Un fléau de fausses images pornographiques générées par l'intelligence artificielle et sexualisant des personnes sans leur consentement a touché sa victime la plus célèbre, la chanteuse Taylor Swift.
Un fléau de fausses images pornographiques générées par l'intelligence artificielle et sexualisant des personnes sans leur consentement a touché sa victime la plus célèbre, la chanteuse Taylor Swift, attirant l'attention sur un problème que les plateformes technologiques et les groupes de lutte contre les abus ont eu du mal à résoudre.
De fausses images de Swift, sexuellement explicites et abusives, ont commencé à circuler largement cette semaine sur la plateforme de médias sociaux X.
Les «Swifties», ses fervents admirateurs, se sont rapidement mobilisés, lançant une contre-offensive sur la plateforme anciennement connue sous le nom de Twitter et un hashtag #ProtectTaylorSwift pour l'inonder d'images plus positives de la star de la pop. Certains ont déclaré qu'ils dénonçaient les comptes qui partageaient les «deepfakes».
Le groupe Reality Defender, qui détecte les «deepfakes», a déclaré avoir suivi un déluge de matériel pornographique non consensuel représentant Swift, en particulier sur X. Certaines images se sont également retrouvées sur Facebook, propriété de Meta, et sur d'autres plates-formes de médias sociaux.
«Malheureusement, elles se sont propagées à des millions et des millions d'utilisateurs avant que certaines d'entre elles ne soient supprimées», a dit Mason Allen, responsable de la croissance de Reality Defender.
Les chercheurs ont trouvé au moins deux douzaines d'images uniques générées par l'IA. Les plus largement partagées étaient liées au football, montrant un Swift peint ou ensanglanté qui l'objectivait et, dans certains cas, infligeait des dommages violents à son personnage «deepfake».
Selon les chercheurs, le nombre de «deepfakes» explicites a augmenté ces dernières années, car la technologie utilisée pour produire ces images est devenue plus accessible et plus facile à utiliser. En 2019, un rapport publié par la société d'IA DeepTrace Labs a montré que ces images étaient en grande majorité utilisées contre des femmes. La plupart des victimes, selon ce rapport, étaient des acteurs hollywoodiens et des chanteurs de K-pop sud-coréens.
Contacté pour un commentaire sur les fausses images de Swift, X a renvoyé l'Associated Press vers un message publié sur son compte de sécurité, qui indique que l'entreprise interdit strictement le partage d'images de nudité non consensuelles sur sa plateforme. Mais l'entreprise a aussi fortement réduit ses équipes de modération de contenu depuis qu'Elon Musk a pris la direction de la plateforme en 2022.
«Nos équipes s'emploient activement à supprimer toutes les images identifiées et à prendre les mesures qui s'imposent à l'encontre des comptes responsables de leur publication», a écrit l'entreprise dans un message X tôt vendredi matin. «Nous suivons de près la situation afin de nous assurer que toute nouvelle violation soit immédiatement traitée et que le contenu soit supprimé».
De son côté, Meta a déclaré dans un communiqué qu'elle condamnait fermement «le contenu qui est apparu sur différents services Internet» et qu'elle s'efforçait de le supprimer.
«Nous continuons à surveiller nos plates-formes pour détecter les contenus violents et nous prendrons les mesures nécessaires si besoin est», a écrit la société.
Un représentant de Swift n'a pas répondu immédiatement à une demande de commentaire vendredi.
Selon M. Allen, les chercheurs sont sûrs à 90 % que les images ont été créées par des modèles de diffusion, qui sont un type de modèle d'intelligence artificielle générative capable de produire des images nouvelles et photoréalistes à partir d'invites écrites. Les plus connus sont Stable Diffusion, Midjourney et DALL-E d'OpenAI. Le groupe d'Allen n'a pas essayé de déterminer la provenance.
Microsoft, qui propose un générateur d'images basé en partie sur DALL-E, a déclaré vendredi qu'il était en train d'enquêter pour savoir si son outil avait été utilisé à mauvais escient. À l'instar d'autres services d'IA commerciaux, il a déclaré qu'il n'autorisait pas «le contenu adulte ou intime non consensuel, et toute tentative répétée de produire du contenu qui va à l'encontre de nos politiques peut entraîner la perte de l'accès au service. Midjourney, OpenAI et Stability AI, fabricant de Stable Diffusion, n'ont pas répondu immédiatement aux demandes de commentaires.
Les législateurs fédéraux qui ont présenté des projets de loi visant à imposer davantage de restrictions ou à criminaliser le deepfake porno ont indiqué que l'incident montre pourquoi les États-Unis doivent mettre en place de meilleures protections.
«Depuis des années, les femmes sont victimes de deepfakes non consensuels. Ce qui est arrivé à Taylor Swift est donc plus courant que la plupart des gens ne le pensent», a avancé Yvette D. Clarke, une démocrate de New York qui a présenté un projet de loi visant à obliger les créateurs à apposer un filigrane numérique sur le contenu des deepfakes.
«L'IA générative permet de créer de meilleurs deepfakes pour une fraction du coût», a affirmé Mme Clarke.
Le représentant américain Joe Morelle, un autre démocrate new-yorkais qui propose un projet de loi visant à criminaliser le partage de faux contenus pornographiques en ligne, a déclaré que ce qui était arrivé à M. Swift était inquiétant et qu'il était de plus en plus répandu sur l'internet.
«Les images sont peut-être fausses, mais leur impact est bien réel», a souligné M. Morelle dans un communiqué. Les «deepfakes» se produisent tous les jours pour des femmes partout dans notre monde de plus en plus numérique, et il est temps d'y mettre un terme.