Début du contenu principal.
Passez suffisamment de temps avec ChatGPT ou d'autres robots conversationnels d'intelligence artificielle et il ne faut pas longtemps pour qu'ils racontent des mensonges.
Passez suffisamment de temps avec ChatGPT ou d'autres robots conversationnels d'intelligence artificielle (IA) et il ne faut pas longtemps pour que ces chatbots racontent des mensonges.
Hallucinations, fabulations ou pures inventions... C'est désormais un problème pour toutes les entreprises, organisations et étudiants du secondaire qui essaient d'utiliser un système d'IA pour composer des documents et accomplir des tâches. Certains l'utilisent pour des tâches avec des conséquences importantes, allant de la psychothérapie à la recherche, jusqu'à la rédaction de mémoires juridiques.
«Je ne pense pas qu'il y a aujourd'hui un modèle qui ne souffre pas de certaines hallucinations», a indiqué Daniela Amodei, co-fondatrice et présidente d'Anthropic, créateur du chatbot Claude 2.
«Ils sont vraiment conçus pour prédire le mot suivant», a ajouté Mme Amodei. «Et il y aura donc un certain taux d'inexactitude du modèle dans cette prédiction.»
Anthropic, le créateur de ChatGPT, OpenAI, et d'autres grands développeurs de systèmes d'IA connus sous le nom de grands modèles de langage, affirment qu'ils travaillent pour les rendre plus fiables.
Combien de temps cela prendra-t-il? Seront-ils un jour assez performants pour donner des conseils médicaux en toute sécurité, par exemple? Cela reste à voir.
À VOIR | Entre appréhension et espoir, ChatGPT s'installe dans nos vies
«Cela n'est pas réparable», a affirmé Emily Bender, professeure de linguistique et directrice du Laboratoire de linguistique computationnelle de l'Université de Washington. «C'est inhérent au désaccord entre la technologie et les cas d'utilisation proposés.»
Beaucoup repose sur la fiabilité de la technologie d'IA générative. Le McKinsey Global Institute estime qu'elle ajoutera l'équivalent de 2,6 billions à 4,4 billions de dollars à l'économie mondiale. Les robots conversationnels ne sont qu'une partie de cette frénésie, qui comprend également la technologie capable de générer de nouvelles images, des vidéos, de la musique et du code informatique. Presque tous ces outils incluent une composante linguistique.
Google propose déjà un produit d'IA pour rédiger des articles de presse aux organisations de presse, où l'exactitude est primordiale. The Associated Press (AP) explore également l'utilisation de cette technologie dans le cadre d'un partenariat avec OpenAI, qui paie pour utiliser une partie des archives de texte de l'AP afin d'améliorer ses systèmes d'IA.
En partenariat avec les instituts de gestion hôtelière de l'Inde, le chercheur en informatique Ganesh Bagler travaille depuis des années pour amener les systèmes d'IA, y compris un prédécesseur de ChatGPT, à inventer des recettes pour les cuisines sud-asiatiques, telles que de nouvelles versions du biryani à base de riz. Un simple ingrédient «halluciné» pourrait faire la différence entre un repas savoureux et immangeable.
Sam Altman, le PDG d'OpenAI, a déjà déclaré lors d'une visite en Inde en juin que son entreprise parviendra «à résoudre le problème d'"hallucinations" [d'ici] un an et demi, deux ans», ou «quelque chose comme ça».
«Mais à ce moment-là, nous n'en parlerons plus», a-t-il tempéré. «Il y a un équilibre entre la créativité et la précision parfaite, et le modèle devra apprendre quand vous voulez l'un ou l'autre.»
Cependant, pour certains experts qui ont étudié la technologie, comme la linguiste Emily Bender de l'Université de Washington, ces améliorations ne seront pas suffisantes.
Mme Bender décrit un modèle de langage comme un système qui «modélise la probabilité de différentes chaînes de formes de mots», en fonction de certaines données écrites sur lesquelles il a été entraîné.
C'est ainsi que les correcteurs orthographiques peuvent détecter quand vous avez tapé le mauvais mot. Cela aide également à alimenter les services de traduction et de transcription automatiques, «en lissant la sortie pour qu'elle ressemble davantage à du texte typique dans la langue cible», a-t-elle ajouté. De nombreuses personnes utilisent une version de cette technologie chaque fois qu'elles utilisent la fonction «saisie automatique» lorsqu'elles composent des messages texte ou des courriels.
La dernière génération de chatbots tels que ChatGPT, Claude 2 ou Bard de Google tente d'aller encore plus loin en générant des passages entiers de texte, mais selon Mme Bender, ils se contentent encore de sélectionner à plusieurs reprises le mot suivant le plus plausible dans une chaîne.
Lorsqu'ils sont utilisés pour générer du texte, les modèles de langage «sont conçus pour inventer des choses. C'est tout ce qu'ils font», a soutenu Mme Bender. Ils sont doués pour imiter différentes formes d'écriture, comme les contrats juridiques, les scripts télévisés ou les sonnets.
«Mais comme ils ne font que créer des choses, lorsque le texte qu'ils produisent par hasard est interprétable comme quelque chose que nous considérons comme correct, c'est purement le fruit du hasard», a-t-elle mentionné. «Même s'ils peuvent être ajustés pour être corrects la plupart du temps, ils auront toujours des modes d'échec - et probablement que les échecs seront dans les cas où il est plus difficile pour une personne qui lit le texte de les remarquer, car ils sont plus obscurs.»
Quoi qu'il en soit, même le PDG d'OpenAi, alors qu'il commercialise les produits pour différentes utilisations, ne compte pas sur les modèles pour être véridique lorsqu'il recherche des informations pour lui-même.
«Je fais probablement le moins confiance aux réponses fournies par ChatGPT parmi toutes les personnes sur Terre», a dit Sam Altman.