Début du contenu principal.
«Devrions-nous risquer de perdre le contrôle de notre civilisation?», demandent les 1000 signataires de la lettre ouverte.
Plusieurs personnalités reconnues dans le monde des technologies, tel qu’Elon Musk, président-directeur général de SpaceX, Tesla et Twitter, ainsi que Steve Wozniak, le cofondateur d’Apple, lancent un appel afin de freiner le développement des systèmes d’intelligence artificielle (IA).
Cet appel prend la forme d’une lettre ouverte totalisant plus de 1000 signatures d’entrepreneurs et d’académiciens en développement technologique, notamment le fondateur de Mila et professeur à l'Université de Montréal, Yoshua Bengio, mais aussi de citoyens qui se sentent concernés par cet enjeu.
Dans cette lettre, le regroupement demande à tous les laboratoires qui entraînent et développent des systèmes d’IA supérieurs à GPT-4 de cesser leurs activités pour une période de six mois.
«Il faudrait établir un moratoire pour qu’on ait le temps de s’adapter et de faire des choix de société», a expliqué le chercheur à l’Observatoire international sur les impacts de l’intelligence artificielle et signataire de la lettre ouverte, Dave Anctil, en entrevue avec la cheffe d’antenne Marie-Christine Bergeron, au bulletin Noovo Le Fil 17.
Voyez l'entrevue intégrale dans la vidéo de cet article.
Dans l’éventualité où ces laboratoires n’agissent pas d’eux-mêmes, les signataires soutiennent qu’il reviendrait aux gouvernements d’entrer en jeu afin d’appliquer un moratoire sur ces travaux.
Faisant référence aux principes lors de la conférence D’Asilomar en 2017, ils expriment que «les systèmes IA avancés pourraient représenter un changement profond dans l’histoire de la vie sur Terre, et devraient être planifiés et organisés avec une attention et des ressources importantes».
Cependant, les récents mois ont été le théâtre d’une course aux développements et aux déploiements de systèmes de plus en plus performants — possiblement plus performants que leurs créateurs, ajoutent-ils.
«La donne a changé: on ne s'attendait pas à avoir des systèmes aussi compétents - encore loin de la capacité de l'être humain, mais assez pour nous faire prendre des vessies pour des lanternes - aussi rapidement. Donc, effectivement, il y a une urgence plus grande maintenant et en plus ça s'est accéléré», a déclaré le M. Bengio lors d'une conférence virtuelle mercredi.
De plus, les signataires argumentent que plusieurs systèmes sont désormais suffisamment compétitifs et pourraient remplacer les humains dans différents domaines, notamment au risque de propager de la désinformation.
«Il est temps de mettre en place des mécanismes au niveau international. Il y a des risques, il y a des dangers. C'est vraiment important de ne pas laisser ça à l'autorégulation, ce n'est pas suffisant [...] et ça, ça demande que les gouvernements mettent des balises, des mécanismes de surveillance, etc.»c, a-t-il dit.
Personne ne nie que l'IA apportera de nombreux bienfaits et que l'on commence à peine à en mesurer le potentiel, mais les experts voient bien que des esprits malveillants en font déjà un usage dangereux, notamment en matière de désinformation avec la production, entre autres, de vidéos dites deep fake où l'IA peut facilement mettre n'importe quels mots dans la bouche de n'importe qui.
Les motifs pour intervenir sont bien connus, mais l'urgence s'impose tout à coup avec insistance en raison d'un développement phénoménal des capacités de l'IA. «Il faut prendre une perspective historique: où était l'IA il y a cinq ans, où est-elle maintenant et projetez-vous cinq ans dans l'avenir», dit M. Bengio.
«Il y a encore beaucoup de chemin à faire selon moi pour atteindre le niveau d'intelligence des humains, mais on a dépassé l'équivalent du test de Turing, c'est-à-dire que les gens qui interagissent avec ces systèmes peuvent facilement penser qu'ils sont en conversation avec un être humain.»
«Je ne pense pas que la société est prête à faire face à cette puissance-là au potentiel de manipulation de la population qui pourrait mettre en danger la démocratie», affirme le chercheur.
Les signataires de la lettre sont très conscients que le fait de stopper le développement technologique de l'IA durant six mois ne peut avoir qu'un impact limité, mais il faut commencer quelque part, affirme le professeur Bengio: «C'est très évident pour moi que six mois ne seront pas assez pour que la société trouve toutes les solutions pour gérer ces risques, mais il faut commencer quelque part. Nous devons prendre une pause, nous avons besoin de penser, nous devons travailler sur des solutions, sur la gouvernance et ainsi de suite.»
Durant cette pause, les signataires suggèrent aux laboratoires de mettre en place des protocoles de sécurité pour les systèmes d’IA avancés, et de permettre à des experts indépendants de superviser ces travaux.
Les signataires font également appel aux gouvernements pour qu’ils travaillent en collaboration avec les laboratoires d’IA, notamment afin de régulariser les capacités de ces systèmes. Ils souhaitent aussi voir le développement de la recherche et d’institutions capables de prévenir les potentielles disruptions démocratiques que l’IA peut causer.
Par contre, ils précisent qu’ils ne souhaitent pas le débranchement de ce type de technologies. Il s’agit plutôt de prendre le temps de réévaluer la direction vers laquelle cette course aux développements se dirige.
Ultimement, le pouvoir revient aux gouvernements, aux multinationales et à leur PDG. «Notre position est un peu idéaliste [...] c’est simplement de dire à la population “il faut qu’on fasse quelque”», a lancé M. Anctil.
Il faudra voir comment sera reçu cet appel à une pause de réflexion par les joueurs les plus importants. Personne dans l'industrie ne veut s'arrêter pour voir son concurrent le dépasser et il faut donc un mouvement commun. Un autre expert, Max Tegmark, un des initiateurs de cet appel à la pause, affirme que l'idée reçoit un accueil positif dans le milieu, du moins sur les réseaux sociaux. De là à passer aux actes, il y a un gouffre qui reste à franchir toutefois.
Un autre obstacle de taille se trouve du côté de la volonté gouvernementale. Le Canada, avec son projet de loi C-27 sur l'intelligence artificielle et les données, en cours d'adoption, pourrait être le premier État à amorcer ce genre d'encadrement. L'Union européenne est aussi avancée dans une réflexion similaire. Sauf que presque tous les joueurs majeurs de l'industrie sont aux États-Unis, où aucune démarche gouvernementale en ce sens n'est dans les cartons.
Avec des informations de Pierre Saint-Arnaud, la Presse canadienne.