Une tribune publiée sur le blog JIN
Si vous n’avez pas encore fait l’exercice de la joute verbale avec ChatGPT, vous avez déjà un train de retard. Et, à moins d’avoir passé les trente derniers jours dans une grotte sans accès à Internet, vous avez sûrement été exposé aux expérimentations de vos relations avec ChatGPT à longueur de fil d’actualité LinkedIn.
Commençons par un bref rappel. GPT-3 est un modèle de langage, c’est-à-dire un outil d’intelligence artificielle dont la vocation est de produire du texte. Il a été lancé en 2020. ChatGPT n’est autre que sa version Chat, i.e. conversationnelle et avec une expérience utilisateur simplifiée. Vous pouvez maintenant interagir avec cet outil et, en fonction de ce que vous lui demanderez, cet outil va formuler une réponse plus ou moins longue ou élaborée.
GPT est une intelligence artificielle générative. Comprendre : des algorithmes qui utilisent du savoir existant au service de leur apprentissage, pour générer de nouveaux contenus. C’est un outil absolument fascinant que nous devons tous, professionnels et particuliers, apprendre à utiliser. Mais il est si puissant qu’il pose nombre de questions, notamment éthiques.
Ceux qui craignent sa version 3 vont faire un collapsus. Sa nouvelle version GPT-4, sera dotée de 100 trillions de paramètres pour analyser les requêtes et y répondre. GPT-3 n’en possède « que » 175 milliards. Par ailleurs, pour ceux qui souhaiteraient freiner cette innovation, là encore, il est déjà trop tard. Meta a conçu un « grand modèle de langage », l’OPT-175B. Google a quant à lui présenté son bot LaMDA il y a deux ans. Nous ne sommes pas en reste avec Bloom, une IA fondée par des Français ; quant à la Chine, elle a Wu Dao pour « chemin de la conscience » environ dix fois plus volumineux que GPT.


