Passer au contenu principal
À voir:

Début du contenu principal.

Politique

IA: Ottawa invite l'industrie à suivre un code de conduite volontaire

Ottawa fait le pari de l’autorégulation en matière d’intelligence artificielle, en attendant que soient adoptées des lois plus musclées pour protéger la population.

Yoshua Bengio, à droite, président de la chaire IA Canada-CIFAR, s'exprime alors que le ministre fédéral de l'Industrie, François-Philippe Champagne, assiste à la conférence All In sur l'intelligence artificielle, le mercredi 27 septembre 2023, à Montréal.
Yoshua Bengio, à droite, président de la chaire IA Canada-CIFAR, s'exprime alors que le ministre fédéral de l'Industrie, François-Philippe Champagne, assiste à la conférence All In sur l'intelligence artificielle, le mercredi 27 septembre 2023, à Montréal.
/ La Presse canadienne

Ottawa fait le pari de l’autorégulation en matière d’intelligence artificielle, en attendant que soient adoptées des lois plus musclées pour protéger la population.

Le ministre de l’Innovation, des Sciences et de l’Industrie, François-Philippe Champagne, a présenté mercredi à Montréal, à l’ouverture de la conférence ALL IN sur l’intelligence artificielle (IA), le «Code de conduite volontaire visant un développement et une gestion responsable des systèmes d’IA générative avancés».

Ce code, qui devait être signé par plusieurs grandes entreprises œuvrant dans les domaines de l’informatique et de l’IA, engage les signataires à adopter plusieurs mesures «pour veiller à ce que les risques soient bien cernés et atténués».

Usage malveillant

Le code souligne ainsi certains risques d’un usage malveillant, par exemple «la capacité de produire des images et des vidéos réalistes ou de se faire passer pour de vraies personnes peut permettre des tromperies d’une envergure qui peut nuire à d’importantes institutions, notamment aux systèmes de justice démocratique et pénale». Il soulève également des risques importants pour les droits individuels en matière de protection de la vie privée.

Les signataires s’engagent ainsi à adopter des mesures de responsabilisation impliquant une gestion des risques et des mesures de sécurité pour veiller à ce que l’exploitation des systèmes soit sécuritaire.

Il implique également d’assurer le respect de la justice et de l’équité dans le déploiement des systèmes et une transparence «pour permettre aux consommateurs de prendre des décisions éclairées et aux experts d’évaluer si les risques ont été adéquatement gérés».

Le code exige également l’existence d’une surveillance humaine des systèmes et leur sécurisation contre les cyberattaques, entre autres.

En attendant C-27

L’importance d’assurer un développement éthique, responsable et prudent de l’IA a été soulignée par l’ensemble des nombreux intervenants en ouverture de conférence, notamment la mairesse de Montréal, Valérie Plante, et le ministre québécois de l’Économie, de l’Innovation et de l’Énergie, Pierre Fitzgibbon.

François-Philippe Champagne a assuré que le projet de loi C-27 viendra répondre en partie aux préoccupations, mais il a reconnu que «la loi va prendre du temps, mais les gens veulent que l'on pose des gestes maintenant pour s'assurer que nous avons des mesures spécifiques que les entreprises peuvent suivre pour bâtir la confiance dans leurs produits d'IA».

Le directeur scientifique et fondateur de MILA, Yoshua Bengio, a insisté sur le fait qu’il est «vraiment important qu'on fasse les investissements et les efforts dans toutes les organisations pour protéger le public, pour s'assurer que l'intelligence artificielle va travailler pour le bien général de la société et qu'on le fasse avec nos partenaires internationaux parce que l'intelligence artificielle n'a pas de frontière. Les utilisations bénéfiques comme les utilisations dangereuses peuvent venir de n'importe quel pays dans le monde», a-t-il rappelé.