Début du contenu principal.
«Nous n'avons jamais eu à faire face à des choses plus intelligentes que nous.»
Geoffrey Hinton se souvient du moment où il est devenu le «parrain» de l'intelligence artificielle.
C'était il y a plus de dix ans, lors d'une réunion avec d'autres chercheurs, dont le gourou de l'intelligence artificielle (IA) Andrew Ng, qui lui a donné ce titre.
«Ce n'était pas un compliment, je ne pense pas», s'est souvenu M. Hinton lors d'un entretien avec le média spécialisé en affaires BNN Bloomberg. «Nous avions juste une session où j'interrompais tout le monde et j'étais le plus ancien qui avait organisé la réunion, alors il a commencé à m'appeler le parrain».
Aujourd'hui, M. Hinton utilise son influence pour interrompre une autre conversation.
À l'heure où le boom de l'IA fait grimper les valorisations des entreprises technologiques à des milliers de milliards, M. Hinton exhorte l'industrie à mettre de côté des sommes considérables pour faire face à une menace existentielle: que se passera-t-il si l'IA devient plus intelligente que l'homme ?
«Je pense qu'il y a une chance sur deux pour qu'elle devienne plus intelligente que nous au cours des 20 prochaines années», a-t-il déclaré.
«Nous n'avons jamais eu à faire face à des choses plus intelligentes que nous.»
«Nous devrions donc être très incertains de ce à quoi cela ressemblera», prévient-il.
Compte tenu de ces inconnues, M. Hinton estime que les entreprises devraient consacrer entre 20 et 30 % de leurs ressources informatiques à l'étude de la manière dont cette intelligence pourrait éventuellement échapper au contrôle de l'homme.
À l'heure actuelle, il ne pense pas que les entreprises consacrent autant d'argent à la sécurité.
«Il semblerait très judicieux de réaliser de nombreuses expériences empiriques lorsque l'intelligence est légèrement inférieure à la nôtre, afin que nous ayons encore une chance de garder le contrôle.
Compte tenu des réalités du capitalisme, M. Hinton ne croit guère que les entreprises, prises individuellement, privilégieront la sécurité au détriment des profits.
Il souhaite donc que les dirigeants politiques interviennent de toute urgence.
«Je pense que les gouvernements sont la seule chose assez puissante pour ralentir cette évolution.
À VOIR ÉGALEMENT | Les impacts de l'intelligence artificielle sur le marché du travail
Pour défendre son point de vue, M. Hinton souligne l'essor rapide d'OpenAI et de sa technologie ChatGPT.
«Si vous prenez quelque chose comme GPT-4, qui est plus grand que GPT-3, il est beaucoup plus intelligent. Il répond correctement à toute une série de questions pour lesquelles GPT-3 se serait trompé.»
«Nous savons donc que ces objets deviendront plus intelligents simplement en les agrandissant. Mais en plus de les rendre plus intelligents en les agrandissant, nous aurons des percées scientifiques.»
Entre-temps, M. Hinton souligne le fait que l'autoconservation est déjà intégrée dans la technologie de l'industrie, afin de s'assurer que des objets tels que les chatbots puissent fonctionner efficacement lorsqu'ils rencontrent des problèmes, tels que des perturbations dans les centres de données.
«Dès qu'il y a un intérêt personnel, l'évolution entre en jeu», a-t-il déclaré.
«Supposons qu'il y ait deux chatbots et que l'un soit un peu plus intéressé que l'autre... celui qui est légèrement plus intéressé s'emparera de plus de centres de données parce qu'il sait qu'il peut devenir plus intelligent s'il dispose de plus de centres de données pour examiner les données. Il y a donc maintenant une concurrence entre les chatbots. Et dès que l'évolution entre en jeu, nous savons ce qui se passe: c'est le plus compétitif qui l'emporte, et nous serons laissés pour compte si cela se produit.»
M. Hinton a juxtaposé ce risque à l'argent potentiel à tirer de cette technologie, comme l'une des principales tensions qui ont conduit le cofondateur d'OpenAI, Ilya Sutskever, à quitter récemment l'entreprise.
«Les personnes intéressées par la sécurité, comme Ilya Sutskever, voulaient que des ressources importantes soient consacrées à la sécurité. Les personnes intéressées par les bénéfices, comme Sam Altman, ne voulaient pas y consacrer trop de ressources.
«Je pense (qu'Altman) aimerait faire de gros profits», a-t-il ajouté.
Après avoir passé plus de 50 ans à mener des recherches dans ce domaine, M. Hinton est devenu depuis longtemps une valeur sûre dans la Silicon Valley, ce qui l'a amené à travailler pour Google.
Mais l'année dernière, il a démissionné de son poste pour pouvoir parler plus librement des risques existentiels liés à l'IA.
«Au printemps 2023, j'ai commencé à réaliser que ces intelligences numériques que nous étions en train de construire pourraient bien être une forme d'intelligence bien meilleure que la nôtre et que nous devions prendre au sérieux l'idée qu'elles allaient devenir plus intelligentes que nous.»
Selon lui, avant que Wall Street ne saisisse l'opportunité de l'IA, les profits n'étaient pas une priorité.
«Lorsque j'étais chez Google, l'entreprise avait une longueur d'avance dans tous ces domaines. Et ils étaient en fait très responsables. Ils ne travaillaient pas beaucoup sur la sécurité, mais ils ne diffusaient pas ces informations parce qu'ils avaient une très bonne réputation et qu'ils ne voulaient pas la ternir [avec] des chatbots disant des choses préjudiciables», se souvient-il. «Ils étaient donc très responsables avec ces informations. Ils l'ont utilisé en interne, mais n'ont pas diffusé les chatbots au public, même s'ils en avaient. Mais dès qu'OpenAI a utilisé certaines des recherches de Google sur les transformateurs pour rendre les choses aussi bonnes que celles de Google [...] et les a même légèrement améliorées pour les donner à Microsoft, Google n'a pas pu s'empêcher de s'impliquer dans une course à l'armement.»
M. Hinton ajoute que la montée en flèche des valeurs boursières - et les réalités de la concurrence pour ces entreprises - atténue rapidement l'importance accordée par l'industrie aux questions de sécurité. «Cela montre clairement aux grandes entreprises qu'elles veulent aller de l'avant à toute vitesse et qu'il y a une grande course entre Microsoft, Google et peut-être Amazon, Nvidia et Meta. Si l'une d'entre elles se retirait, les autres continueraient à avancer.»
Cela ne veut pas dire qu'il ne croit pas que les leaders de la technologie ne sont pas préoccupés par les risques. «Certaines personnes dans l'industrie - en particulier Elon Musk - ont déclaré qu'il s'agissait d'une menace réelle. Je ne suis pas d'accord avec une grande partie de ce qu'il dit, mais je suis d'accord avec cet aspect», a déclaré M. Hinton.
Quant aux entreprises qui réservent environ un tiers de leurs ressources informatiques aux tests de sécurité, M. Hinton est sceptique. Mais s'ils étaient collectivement obligés de le faire, il pourrait voir une voie vers cela.
«Je ne suis pas sûr qu'elles s'y opposeraient si elles devaient toutes le faire. Ce serait tout aussi difficile pour chacun d'entre eux. Et je pense que cela pourrait être faisable».
Et en fin de compte, c'est ce qui amène Hinton à croire que l'intervention du gouvernement est la seule solution, malgré le fait que de nombreux pays sont déjà en concurrence les uns avec les autres pour s'assurer qu'ils ont respectivement une longueur d'avance en matière d'IA.
«Aucun de ces pays ne veut que la superintelligence prenne le dessus. Et cela les obligera à se coordonner.»