Début du contenu principal.
«Il s'agit de harcèlement, il s'agit de partager de fausses informations...»
Des images osées de la célèbre chanteuse Taylor Swift générées par intelligence artificielle ont été l'objet de plusieurs réactions et critiques au cours des derniers jours.
Et les experts voient cette situation comme un signal d'alarme montrant que nous avons besoin dès maintenant d'une véritable réglementation quant à l'IA.
Ce texte est une traduction d'un article de CTV News.
Mohit Rajhans, consultant en médias et technologies chez Think Start, a affirmé lors d'un entretien avec CTV News dimanche que «nous sommes devenus le Far West en ligne» en ce qui concerne la génération et la diffusion de contenu généré par l'IA.
«L'intelligence artificielle générale est là, et c'est maintenant à nous de trouver comment nous allons la réglementer.»
Il aurait fallu jusqu'à 17 heures pour que les fausses images de Taylor Swift circulant sur X soient retirées.
Les termes «Taylor Swift», «Taylor Swift IA» et «Taylor IA» renvoient actuellement à des rapports d'erreur si un utilisateur tente de les rechercher sur X. Les responsables de la plateforme ont déclaré que c'est une mesure temporaire pendant qu'ils évaluent la sécurité du réseau social.
Mais les images «deepfakes» de la chanteuse ont été vues des dizaines de millions de fois avant que les réseaux sociaux n'interviennent. Les «deepfakes» sont des images et des vidéos générées par l'IA montrant de fausses situations mettant en scène des personnes réelles. Le gros danger derrière ce phénomène est que les images sont nettement plus réalistes qu'une image retouchée sur Photoshop.
«Il y a beaucoup de harcèlement potentiel et de désinformation qui se propage si cette technologie n'est pas réglementée», a soutenu M. Rajhans.
Le cas de Taylor Swift fait partie d'une tendance inquiétante quant à l'utilisation de l'IA afin de générer des images pornographiques de personnes sans leur consentement, une pratique connue sous le nom de «revenge porn» qui est principalement utilisée contre les femmes et les filles.
Bien que l'IA soit utilisée de manière abusive depuis des années, M. Rajhans a expliqué qu'il y a un «effet Taylor» qui incite les gens à se réveiller et à prêter attention au problème.
«Ce qui s'est passé, c'est qu'en raison de l'utilisation de l'image de Taylor Swift pour tout, de la vente de produits auxquels elle n'est pas affiliée à la manipulation de son image dans divers actes sexuels, plus de gens ont pris conscience de la prolifération de cette technologie», a-t-il avancé.
Même la Maison-Blanche est attentive, commentant vendredi que des mesures doivent être prises.
Dans un communiqué vendredi, la porte-parole de la Maison-Blanche, Karine Jean-Pierre, a déclaré que la diffusion de fausses photos sexuellement explicites de Taylor Swift était «alarmante» et que des actions législatives étaient envisagées pour mieux traiter ces situations à l'avenir.
«Il devrait y avoir une législation, évidemment, pour traiter de ce problème», a-t-elle répondu.
SAG-AFTRA, le syndicat qui représente des milliers d'acteurs, a indiqué dans un communiqué samedi qu'ils soutenaient une législation proposée introduite par le représentant américain Joe Morelle l'année dernière, appelée la Loi sur la prévention des «deepfakes».
«Le développement et la diffusion d'images fausses - en particulier celles de nature lascive - sans le consentement de quelqu'un doivent être illégaux», a lancé le syndicat dans le communiqué.
Mme Jean-Pierre a ajouté que les réseaux sociaux «ont un rôle important à jouer dans l'application de leurs propres règles» afin d'empêcher la diffusion «d'images intimes non consenties de personnes réelles».
M. Rajhans a quant à lui mentionné dimanche qu'il est clair que les plateformes doivent en faire plus contre les deepfakes.
«Nous devons rendre les entreprises responsables», a-t-il ajouté. «Il doit y avoir des amendes importantes associées à certaines de ces entreprises. Ils ont gagné beaucoup d'argent en utilisant les réseaux sociaux.»
Il a souligné que si les gens téléchargent une chanson qui ne leur appartient pas, il existe des moyens pour qu'elle soit signalée sur les sites.
«Alors pourquoi n'utilisent-ils pas cette technologie dès maintenant dans le but de modérer les réseaux sociaux afin que les deepfakes ne puissent pas être diffusée», a-t-il dit.
Un rapport de 2023 sur les deepfakes a révélé que 98% de toutes les vidéos deepfake en ligne étaient de nature pornographique - et 99% des personnes ciblées par la pornographie deepfake étaient des femmes. Les chanteurs et actrices sud-coréens étaient disproportionnellement ciblés, représentant 53% des personnes ciblées dans la pornographie deepfake.
Le rapport a souligné que la technologie permet aux utilisateurs de créer une vidéo pornographique deepfake de 60 secondes offerte gratuitement en moins d'une demi-heure.
La rapidité même des progrès réalisés dans le monde de l'IA joue contre nous en termes de gestion des répercussions de cette technologie, a affirmé M. Rajhans.
«C'est tellement banal que vous et moi pouvons simplement créer des memes et les partager et personne ne peut savoir si c'est un fait réel ou si c'est quelque chose qui a été recréé», a-t-il mentionné.
«Il ne s'agit pas seulement de Taylor Swift. Il s'agit de harcèlement, il s'agit de partager de fausses informations, il s'agit d'une culture entière qui doit être éduquée sur la manière dont cette technologie est utilisée.»
On ne sait pas combien de temps il faudra pour voir une législation canadienne restreignant les deepfakes.
Le Service canadien du renseignement de sécurité a qualifié les deepfakes de «menace pour l'avenir du Canada» dans un rapport de 2023 qui concluait que «la collaboration entre les gouvernements partenaires, les alliés, les universitaires et les experts de l'industrie est essentielle tant pour maintenir l'intégrité des informations distribuées mondialement que pour lutter contre l'application malveillante de l'IA évolutive».
Bien qu'un cadre réglementaire proposé pour les systèmes d'IA au Canada soit actuellement examiné à la Chambre des communes, appelé la Loi sur l'intelligence artificielle et les données, il n'entrerait pas en vigueur cette année. Si le projet de loi obtient la sanction royale, un processus de consultation commencera pour clarifier l'AIDA, le cadre entrant en vigueur au plus tôt en 2025.