Passer au contenu principal
À voir:

Début du contenu principal.

Technologie

Le problème de la «deepfake porn» en IA

L'imagerie par intelligence artificiel peut être un outil intéressant pour plusieurs choses, mais des experts craignent que le côté sombre de ses outils aggrave quelque chose qui nuit principalement aux femmes : la pornographie deepfake non consensuelle.

L'Australienne Noelle Martin pose pour une photo jeudi 9 mars 2023, à New York. La jeune femme de 28 ans a découvert du «deepfake porn» d'elle-même il y a 10 ans lorsque, par curiosité, un jour, elle a utilisé Google pour rechercher une image d'elle-même.
L'Australienne Noelle Martin pose pour une photo jeudi 9 mars 2023, à New York. La jeune femme de 28 ans a découvert du «deepfake porn» d'elle-même il y a 10 ans lorsque, par curiosité, un jour, elle a utilisé Google pour rechercher une image d'elle-même.
Haleluya Hadero
Haleluya Hadero / Associated Press

L'imagerie par intelligence artificielle peut être utilisée pour créer de l'art, essayer des vêtements dans des cabines d'essayage virtuelles ou aider à concevoir des campagnes publicitaires. 

Mais les experts craignent que le côté sombre de ces outils, facilement accessibles, aggrave un problème qui nuit principalement aux femmes : la pornographie deepfake non consensuelle.

Les deepfakes sont des vidéos et des images qui ont été créées ou modifiées numériquement avec l'intelligence artificielle ou l'apprentissage automatique. La porno créée à l'aide de cette technologie a commencé à se répandre sur Internet il y a plusieurs années lorsqu'un utilisateur de Reddit a partagé des clips qui plaçaient les visages de célébrités féminines sur les épaules d'acteurs porno.

Depuis, les créateurs de deepfake ont diffusé des vidéos et des images similaires ciblant les influenceurs en ligne, les journalistes et autres personnes ayant un profil public. Des milliers de vidéos existent sur plusieurs sites Web. Et certains ont offert aux utilisateurs la possibilité de créer leurs propres images – permettant essentiellement à quiconque de transformer qui il veut en fantasmes sexuels sans son consentement, ou d'utiliser la technologie pour nuire à d'anciens partenaires.

À lire également : 

De plus en plus facile de travailler avec l'IA

Selon les experts, le problème s'est aggravé à mesure qu'il devenait plus facile de créer des deepfakes sophistiqués et visuellement convaincants. Et ils disent que cela pourrait empirer avec le développement d'outils d'IA génératifs qui sont générés sur des milliards d'images d'Internet et qui permet de créer du nouveau contenu en utilisant des données existantes.

«La technologie continuera à proliférer, continuera à se développer et continuera à devenir aussi simple que d'appuyer sur un bouton», a déclaré Adam Dodge, le fondateur d'EndTAB, un groupe qui propose des formations sur les abus activés par la technologie.

«Les gens continueront sans aucun doute à abuser de cette technologie pour nuire aux autres, principalement par le biais de la violence sexuelle en ligne, de la pornographie deepfake et de fausses images de nudité.»
- Adam Dodge, le fondateur d'EndTAB

Elle découvre du deepfake porn d'elle-même

Noelle Martin, de Perth, en Australie, a vécu cette expérience. La jeune femme de 28 ans a découvert du deepfake porn il y a 10 ans lorsque, par curiosité, un jour, elle a utilisé Google pour rechercher une image d'elle-même. À ce jour, Mme Martin dit qu'elle ne sait pas qui a créé les fausses images ou les vidéos d'elle se livrant à des rapports sexuels qu'elle trouvera plus tard. Elle soupçonne que quelqu'un a probablement pris une photo publiée sur ses pages de médias sociaux. 

Horrifiée, Mme Martin a contacté différents sites Web pendant plusieurs années dans le but de faire retirer les images. Certains n'ont pas répondu. D'autres les ont enlevées, mais elle les a vite retrouvées.

«Vous ne pouvez pas gagner», a-t-elle expliqué. «C'est quelque chose qui sera toujours là. C'est comme si ça t'avait ruiné pour toujours.»

Finalement, Mme Martin s'est tournée vers la législation, plaidant pour une loi nationale en Australie qui infligerait une amende de 555 000 dollars australiens (370 706 $) aux entreprises si elles ne se conformaient pas aux avis de suppression de ce contenu des régulateurs de sécurité en ligne.

Mais gouverner Internet est presque impossible lorsque les pays ont leurs propres lois pour le contenu qui est parfois produit à l'autre bout du monde. Mme Martin, actuellement avocate et chercheuse juridique à l'Université d'Australie-Occidentale, pense que le problème doit être contrôlé par une sorte de solution globale.

L'implication du milieu de l'IA est nécessaire

En attendant, certains entreprises d'IA disent qu'ils limitent déjà l'accès aux images explicites.

OpenAI dit avoir supprimé le contenu explicite des données utilisées pour former l'outil de génération d'images DALL-E, ce qui limite la capacité des utilisateurs à créer ces types d'images. La société filtre également les demandes et dit qu'elle empêche les utilisateurs de créer des images de célébrités et d'éminents politiciens. Midjourney, un autre modèle, bloque l'utilisation de certains mots-clés et encourage les utilisateurs à signaler les images problématiques aux modérateurs.

Pendant ce temps, la startup Stability AI a déployé une mise à jour en novembre qui supprime la possibilité de créer des images explicites à l'aide de son générateur d'images Stable Diffusion. Ces changements sont survenus à la suite de rapports selon lesquels certains utilisateurs créaient des photos de nudité inspirées par des célébrités à l'aide de la technologie.

Le porte-parole de Stability AI, Motez Bishara, a affirmé que le filtre utilise une combinaison de mots-clés et d'autres techniques comme la reconnaissance d'image pour détecter la nudité et renvoie une image floue. Mais il est possible pour les utilisateurs de manipuler le logiciel et de générer ce qu'ils veulent puisque l'entreprise publie son code au public. M. Bishara a soutenu que la licence de Stability AI «s'étend aux applications tierces construites sur Stable Diffusion» et interdit strictement «toute utilisation abusive à des fins illégales ou immorales».

À lire également : Est-ce que l'IA se développe trop vite? Elon Musk et de nombreux experts exigent une pause

Certaines entreprises de médias sociaux ont également renforcé leurs règles pour mieux protéger leurs plateformes contre les contenus nocifs.

TikTok a fait savoir le mois dernier que tous les deepfakes ou contenus manipulés qui montrent des scènes réalistes doivent être étiquetés pour indiquer qu'ils sont faux ou modifiés d'une manière ou d'une autre, et que les deepfakes de personnalités privées et de jeunes ne sont plus autorisés. Auparavant, la société avait interdit les contenus sexuellement explicites et les deepfakes qui induisaient les utilisateurs en erreur sur les événements du monde réel et causaient des dommages.

La plate-forme de jeu Twitch a également récemment mis à jour ses politiques concernant les images deepfake explicites après qu'un streamer populaire nommé Atrioc a été dénoncé pour avoir un site Web porno deepfake ouvert sur son navigateur lors d'une diffusion en ligne fin janvier. Le site présentait de fausses images d'autres streamers Twitch.

Twitch a déjà interdit les deepfakes explicites, mais montrant maintenant un aperçu de ce contenu – même s'il est destiné à exprimer l'indignation – «sera supprimé et entraînera une sanction», a écrit la société dans un article de blog. Et la promotion intentionnelle, la création ou le partage du matériel est un motif d'interdiction instantanée.

D'autres entreprises ont également tenté d'interdire les deepfakes de leurs plateformes, mais les empêcher nécessite de la diligence.

Apple et Google ont récemment mentionné avoir supprimé une application de leurs magasins d'applications qui diffusait des vidéos deepfake sexuellement suggestives d'actrices pour commercialiser le produit. La recherche sur le deepfake porn n'est pas répandue, mais un rapport publié en 2019 par la société d'intelligence artificielle DeepTrace Labs a révélé qu'il visait presque entièrement les femmes et que les personnes les plus ciblées étaient les actrices occidentales, suivies des chanteurs sud-coréens de K-pop.

La même application supprimée par Google et Apple avait diffusé des publicités sur la plate-forme de Meta, qui comprend Facebook, Instagram et Messenger. Le porte-parole de Meta, Dani Lever, a confirmé dans un communiqué que la politique de l'entreprise restreignait à la fois le contenu pour adultes généré par l'IA et non-IA et qu'elle avait interdit à la page de l'application de faire de la publicité sur ses plateformes.

Haleluya Hadero
Haleluya Hadero / Associated Press