Début du contenu principal.
L'idée, selon Elon Musk, est qu'une IA qui veut comprendre l'humanité est moins susceptible de la détruire. Il a également ajouté qu'il était inquiet que ChatGPT «soit formé pour être politiquement correct».
Le milliardaire et propriétaire de Twitter, Elon Musk, sonne à nouveau l'alarme sur les dangers de l'intelligence artificielle (IA) pour l'humanité, et affirme qu'il prévoit créer sa propre application d'intelligence artificielle comme ChatGPT.
M. Musk a déclaré à l'hôte de Fox News, Tucker Carlson, dans une entrevue diffusée lundi soir qu'il entend créer une alternative au chatbot populaire ChatGPT qu'il nommera TruthGPT, qui sera une «IA cherchant la vérité au maximum tout en tentant de comprendre la nature de l'univers».
L'idée, selon Elon Musk, est qu'une IA qui veut comprendre l'humanité est moins susceptible de la détruire. Il a également ajouté qu'il était inquiet que ChatGPT «soit ajusté pour être politiquement correct».
À lire | Le problème de la «deepfake porn» en IA
Lors de l'entretien avec M. Carlson, Elon Musk a aussi plaidé en faveur de la réglementation de l'intelligence artificielle, affirmant qu'il en était un «grand fan». Il a soutenu que l'IA est «plus dangereuse» que les voitures ou les fusées et a affirmé qu'elle avait le potentiel de détruire l'humanité.
Elon Musk a créé une nouvelle entreprise appelée X.AI Corp., selon un dépôt d'entreprise au Nevada. Le site web du bureau du secrétaire d'État du Nevada indique que l'entreprise a été fondée le 9 mars et qu'Elon Musk en est le directeur, tandis que son conseiller de longue date, Jared Birchall, en est le secrétaire.
Elon Musk a été l'un des premiers investisseurs dans OpenAI (l'entreprise derrière ChatGPT) et a co-présidé son conseil d'administration à sa création en 2015. Mais il n'y est resté que quelques années, démissionnant du conseil d'administration début 2018.
«J'ai trouvé le nom et le concept», a déclaré Musk à Carlson, regrettant qu'OpenAI soit maintenant étroitement allié à Microsoft et ne soit plus à but non lucratif.
M. Musk a précisé quelque peu sur les raisons de son départ en 2019, affirmant qu’il était également lié à son besoin de se concentrer sur les problèmes d’ingénierie chez Tesla et à certaines divergences d’opinions avec les dirigeants d’OpenAI. «Il était juste préférable de se séparer à l’amiable», a-t-il expliqué.
«Tesla était en concurrence pour les “mêmes talents” qu’OpenAI et je n’étais pas d’accord avec certaines choses que l’équipe voulait faire», a tweeté Musk, sans spécifier davantage les raisons de son départ.
À lire également :
Des questions ont été soulevées quant à la qualité des systèmes d’IA de Tesla. Le mois dernier, les régulateurs américains de la sécurité ont annoncé une enquête sur un accident mortel impliquant une Tesla suspectée d’avoir utilisé un système de conduite automatisé lorsqu’elle a heurté un camion de pompiers stationné en Californie.
L’enquête fait partie d’une enquête plus large de l’agence sur de multiples incidents de Tesla utilisant le système Autopilot du constructeur automobile et percutant des véhicules d’urgence stationnés qui interviennent sur d’autres accidents.
L’année suivant la démission de Musk du conseil d’administration, OpenAI était encore loin de travailler sur ChatGPT, mais a dévoilé publiquement la première génération de son système GPT, sur lequel ChatGPT est fondé, et a commencé un important virage pour se transformer en une entreprise à but lucratif.
En 2020, Elon Musk tweetait que «OpenAI devrait être plus ouverte», tout en notant qu’il n’avait «aucun contrôle et seulement une mince compréhension» de celle-ci.
Parfois, il a été élogieux. Dans les jours suivant la sortie de ChatGPT le 30 novembre, Musk a tweeté au PDG d’OpenAI, Sam Altman, que c’était «effrayant de voir à quel point c'est efficace» et s’est plaint que les médias n’en parlaient pas suffisamment.
Depuis lors, Musk a régulièrement mis en avant des exemples qu’il dit montrer un biais ou une censure de gauche par ChatGPT. Comme d’autres chatbots, ChatGPT dispose de filtres qui essaient d’empêcher qu’il ne produise des réponses toxiques ou offensantes.