Davinci 003 est le dernier modèle de texte publié par OpenAI et est conçu pour améliorer la génération de contenu de longue forme.
La société d’intelligence artificielle OpenAI a publié un nouveau modèle de texte génératif qui, selon elle, produit une écriture de meilleure qualité, peut gérer des instructions complexes et générer du contenu de longue forme. Baptisé text-davinci-003, ce modèle fait partie de la famille GPT-3 et s’appuie sur des systèmes antérieurs.
Il s’appuie sur le moteur Davinci, conçu pour exécuter un large éventail de tâches avec moins d’instructions pour obtenir le résultat requis. Il est particulièrement utile lorsqu’une connaissance approfondie d’un sujet est requise, notamment pour résumer des textes et produire du contenu narratif et des dialogues.
Pour faciliter son utilisation dans le cadre d’une compréhension plus approfondie, les modèles basés sur Davinci sont plus lourds en termes de calcul, ce qui entraîne un coût légèrement supérieur par appel d’API par rapport aux modèles plus simples tels qu’Ada et Babbage.
« Ce modèle s’appuie sur nos précédents modèles InstructGPT et améliore un certain nombre de comportements que nous avons entendus comme étant importants pour vous en tant que développeurs », a déclaré OpenAI dans un communiqué.
Il s’agit notamment d’une écriture de meilleure qualité, qui, selon OpenAI, aidera les applications réalisées à l’aide des appels d’API à fournir « un contenu plus clair, plus attrayant et plus convaincant », ainsi que de la capacité à gérer des instructions plus complexes « ce qui signifie que vous pouvez être encore plus créatif dans l’utilisation de ses capacités ».
Selon OpenAI, Davinci constitue une nette amélioration par rapport aux modèles précédents lorsqu’il s’agit de produire du contenu de longue forme et de meilleure qualité, en partie grâce aux instructions dans le texte, « ce qui vous permet d’entreprendre des tâches qui auraient été trop difficiles à réaliser auparavant ».
En demandant à text-davinci-003 de résumer les principaux avantages de l’utilisation de l’IA générative de texte, il a produit le paragraphe suivant : « L’IA générative de texte est un type de technologie d’intelligence artificielle (IA) qui peut produire du texte de type humain. Elle peut être utilisée pour créer des contenus tels que des histoires, des articles et des résumés. Les principaux avantages de l’utilisation de l’IA du texte génératif sont qu’elle permet de gagner du temps et de l’argent, de générer un contenu unique et de créer des expériences personnalisées pour les utilisateurs. »
Voici la réponse de text-davinci-002, le mode de génération précédent, à la même invite : « L’utilisation de l’IA textuelle générative présente de nombreux avantages, notamment la possibilité de créer des textes réalistes, la possibilité d’expérimenter différents modèles de langage et la possibilité de créer des textes difficiles à générer pour les humains. »
La principale nouveauté réside dans le fait qu’il est désormais possible d’insérer des compléments dans le texte. Cela implique l’ajout d’un suffixe et d’un préfixe pour assurer la transition entre les paragraphes et mieux définir le flux du texte.
OpenAI progresse vers GPT-4 ?
Il s’agit d’un ajout à GPT-3, le modèle d’IA de traitement du langage naturel d’OpenAI qui compte quelque 175 milliards de paramètres et qui a été publié en mai 2020. Generative Pre-trained Transformer 3, pour lui donner son titre complet, est un système d’IA à apprentissage profond qu’OpenAI a formé en lui fournissant des informations provenant de millions de sites Web.
Les rumeurs entourant son successeur, GPT-4, se multiplient, certains suggérant qu’il pourrait être lancé à un moment donné entre décembre et février et qu’il comptera jusqu’à un trillion de paramètres, ce qui le rendra nettement plus puissant et plus « humain » dans ses résultats que GPT-3.
Sam Altman, PDG d’OpenAI, a démenti que le système soit aussi puissant et avancé et qu’il puisse être similaire en taille à GPT-3 mais plus efficace.
Alberto Romero, analyste de l’IA et de la technologie chez CambrianAI, a écrit dans un SubStack que les premiers utilisateurs ont déjà reçu un accès bêta à GPT-4 et ont été forcés de signer un accord de non-divulgation concernant sa fonctionnalité, avec des preuves anecdotiques suggérant qu’il est « bien meilleur que ce que les gens pouvaient attendre ».
Il prédit que GPT-4 sera suffisamment avancé pour passer facilement le test de Turing, un symbole des limites de l’intelligence des machines conçu par le mathématicien britannique Alan Turing en 1950. Cette prévision est en partie inspirée par un tweet d’Altman du 9 novembre montrant une image de Dark Vador avec la légende : « Ne sois pas trop fier de cette terreur technologique que tu as construite, la capacité à passer le test de Turing est insignifiante à côté du pouvoir de la force ».
« Le test de Turing est généralement considéré comme obsolète », écrit Romero dans son article. « Par essence, c’est un test de tromperie (tromper une personne), donc une IA pourrait théoriquement le réussir sans posséder d’intelligence au sens humain du terme. Il est également assez limité, car il est exclusivement axé sur le domaine linguistique. »
Des rumeurs partagées sur Reddit, mais non vérifiées, suggèrent qu’il sera complet en termes de paramètres mais limité, ce qui signifie que l’espace est laissé avec des éléments inactifs jusqu’à ce qu’ils soient nécessaires et conduisant à une taille globale similaire à celle de modèles plus petits, mais plus denses, y compris GPT-3 lui-même.
« OpenAI a changé de cap avec GPT-4 à plusieurs reprises au cours de ces deux années, donc tout est possible par la suite. Nous devrons attendre jusqu’au début de 2023, qui promet d’être une autre grande année pour l’IA », a déclaré M. Romero.